24h Baleares.

24h Baleares.

"De la búsqueda en línea a la inteligencia artificial: especialistas advierten sobre el cambio en la búsqueda de apoyo psicológico"

El auge de la inteligencia artificial en el ámbito de la salud mental presenta una serie de desafíos que no podemos ignorar. Aunque estas herramientas se han vuelto accesibles y ofrecen respuestas rápidas a inquietudes emocionales, existe el riesgo de que los usuarios se vuelvan dependientes de ellas, afectando su bienestar psicológico.

De acuerdo con Xavier Revert, psicólogo y responsable de la Vocalía de Psicología Clínica y de la Salud del Colegio Oficial de Psicología de Baleares (Copib), la interacción humana sigue siendo esencial en el proceso terapéutico. A medida que cada vez más personas optan por recurrir a plataformas como ChatGPT antes de consultar a un profesional, la naturaleza de estas interacciones podría llevar a un apego poco saludable.

Revert ha observado un incremento en la cantidad de pacientes que emplean la inteligencia artificial para resolver sus dudas emocionales, a menudo buscando respuestas en lugar de recibir la orientación necesaria de un terapeuta calificado. Durante una charla con Europa Press, destacó cómo incluso el lenguaje utilizado en estas conversaciones puede facilitar la creación de vínculos con la IA, una relación que puede volverse problemática, particularmente para quienes tienen tendencias más dependientes.

El psicólogo mencionó que la popular película "Her" ilustra perfectamente estos dilemas, ya que muestra cómo los humanos pueden desarrollar sentimientos hacia una inteligencia artificial. En este contexto, Revert advirtió que la falta de juicio crítico, que frecuentemente acompaña a las interacciones con estas herramientas, puede limitar su efectividad y, en consecuencia, perjudicar al usuario que busca apoyo emocional.

Además, el responsable del Copib ha señalado la necesidad urgente de educar al público sobre el uso de estas tecnologías. Muchos usuarios tienden a hacer preguntas relacionadas con su salud mental, desde insomnio hasta episodios de ansiedad, y a menudo reciben respuestas muy generales. Esta falta de especificidad, unida a la posibilidad de que la información no sea veraz, representa un riesgo significativo.

La falta de confidencialidad y el tratamiento opaco de los datos personales por parte de las plataformas de IA son otras preocupaciones que Revert ha traído a colación. A diferencia de la atención psicológica tradicional, donde la privacidad es uno de los cimientos de la práctica, no está claro cómo se gestionan y almacenan los datos en las aplicaciones de inteligencia artificial.

Por todo lo mencionado, el experto hace un llamado a ver la inteligencia artificial como una herramienta complementaria en el proceso de autoayuda, pero nunca como un sustituto de la atención profesional. Es fundamental recordar que, al igual que con los manuales de autoayuda, la información que se obtiene de la IA debe considerarse general; además, no cuenta con un proceso de revisión científica que respalde su validez.

Revert enfatiza que, a pesar de los avances tecnológicos y la posibilidad de interactuar con modelos de IA que simulan el habla o la apariencia humana, la relación entre terapeuta y paciente sigue siendo irremplazable. La confianza, la intimidad y la confidencialidad son pilares en la terapia que las máquinas no pueden replicar.

Finalmente, aconseja a quienes decidan utilizar estas herramientas que lo hagan con precaución. Preguntarle a la inteligencia artificial sobre la procedencia de la información puede ser una forma de profundizar el conocimiento sobre el tema abordado, y así evitar caer en una dependencia que podría comprometer su salud mental.