sábado, 6 septiembre, 2025
InicioDeportesPsicólogo artificial. Los riesgos de convertir al algoritmo en terapeuta

Psicólogo artificial. Los riesgos de convertir al algoritmo en terapeuta

La IA está entrando en el consultorio. Desde aplicaciones que ofrecen “apoyo emocional” 24/7 hasta chatbots que guían meditaciones o ayudan a replantear pensamientos, la tecnología empieza a proveer acompañamiento donde la oferta humana es escasa o se considera reemplazable. Pero, ¿qué ocurre cuando el interlocutor carece de cuerpo, historia y vulnerabilidad? ¿Hasta dónde puede un modelo computacional “comprender” la complejidad emocional de una persona?

El templo de Apolo en Delfos se coronaba con la frase “Conócete a ti mismo”. La máxima que durante siglos fue brújula para la filosofía y la psicología hoy se enfrenta a un interlocutor inesperado: el algoritmo. El análisis –ese viaje íntimo en busca de sentido– parece estar encontrando una nueva estación, tan inmaterial como ubicua, en aplicaciones que nunca duermen y que ofrecen respuesta express, sin límite de tiempo ni distancia, a las más variadas zozobras emocionales.


La tecnología democratiza el acceso, pero introduce peligros no visibles


Según un estudio de la Universidad de Stanford, casi la mitad de las personas que reconocieron padecer problemas emocionales admitieron haber utilizado alguna forma de IA para obtener alivio inmediato. “Se está convirtiendo en el proveedor de apoyo psicológico más usado en Estados Unidos, rivalizando en alcance con instituciones sanitarias –señala a LA NACION Tony Rousmaniere, psicólogo e investigador estadounidense, autor de varios libros sobre terapia enfocada en la emoción–. Pero ninguno de los sistemas que probamos cumplió de manera consistente con los estándares básicos de seguridad clínica en situaciones de crisis”.

Las cifras no sorprenden, si se considera la demanda creciente. La OMS calcula que más de 1000 millones de personas en el mundo conviven con algún problema de salud mental, en momentos en que el acceso a profesionales sigue siendo escaso y costoso en muchas regiones. En ese vacío, los chatbots aparecen como una suerte de “parche emocional”: disponibles, económicos y anónimos.

Sin embargo, el fenómeno despierta un interrogante: ¿qué ocurre cuando el vínculo terapéutico es reemplazado por un modelo estadístico que devuelve palabras sin conciencia? “Mucha gente entra en una fase de rumiación permanente con la IA. Preguntan una y otra vez sobre sus preocupaciones y la máquina tiende a darles la razón [el llamado sesgo de complacencia]. Eso genera dependencia, pero no una mejora real –explica Silvia Álava Sordo, doctora en Psicología por la Universidad Autónoma en Madrid–. Lo que más cura en terapia es el vínculo, esa comprensión humana imposible de sustituir por una aplicación”.


El vínculo terapéutico es reemplazado por un modelo estadístico que ofrece palabras sin conciencia


Un análisis publicado en The Guardian describe cómo jóvenes en Taiwán y China recurren a chatbots para hablar de ansiedad, soledad o rupturas sentimentales. Allí encuentran compañía infinita y sin juicios. Fernanda Longo Elía, psicóloga de la Fundación Aiglé, ONG dedicada a la salud y la educación, señala: “Esto está generando alarma en organismos internacionales como la American Psychological Association (APA), porque puede gatillar episodios graves en personas vulnerables”.

eSucede lo mismo que en otros ámbitos: mientras la tecnología democratiza el acceso, al mismo tiempo introduce riesgos invisibles. En este caso, en una cuestión delicada, como la salud mental. “La IA puede aportar en intervenciones de baja intensidad, pero un sistema de lenguaje resulta insuficiente en condiciones complejas –dice Javier Fernández Álvarez, investigador de la Universidad de Valencia–. También podría colaborar en la personalización de tratamientos, ayudando a orientar la estrategia inicial más adecuada para cada paciente. Pero insisto: en cuadros severos este aporte nunca reemplaza la labor clínica”.

Entre promesa y peligro, se abre un interrogante: ¿qué lugar dar a la máquina en el espacio más íntimo de la mente?

El vínculo entre psicología y tecnología no nació con ChatGPT. Sus raíces se remontan a mediados del siglo XX, cuando Alan Turing se preguntaba si una máquina podía pensar y proponía el célebre “juego de la imitación”: un experimento mental donde la clave no era la inteligencia de la máquina, sino la percepción humana de estar frente a un interlocutor real.

En 1966, Joseph Weizenbaum, investigador del MIT, desarrolló ELIZA, considerado el primer chatbot terapéutico. El programa funcionaba detectando palabras clave en las frases del usuario y devolviendo respuestas genéricas como “¿por qué piensas eso?”. Aunque su creador quiso mostrar los límites de las máquinas para comprender, lo que sorprendió fue la reacción de los usuarios: muchos sentían que ELIZA los comprendía de verdad. “Ese es el llamado efecto ELIZA: la tendencia a atribuir profundidad emocional a simples cadenas de símbolos”, explica Fredi Vivas, experto en IA, autor de Invisible. La inteligencia artificial en nuestra vida cotidiana (Sudamericana)

Lo que nació como un experimento académico terminó revelando algo mucho más profundo: la predisposición humana a proyectar en la máquina una capacidad de escucha que, aunque simulada, se vivía como real. “Muchas personas sentían que estaban hablando con alguien de carne y hueso. La conexión emocional era ilusoria, pero poderosa”, añade Vivas.


La simulación de empatía puede reforzar la sensación de aislamiento


Este fenómeno no pasó inadvertido para los psicólogos de la época. Carl Rogers, referente de la psicología humanista, veía con curiosidad cómo una simulación podía, al menos en apariencia, reproducir las actitudes de aceptación y escucha activa que él mismo promovía en la terapia centrada en el paciente. Albert Ellis, creador de la terapia racional emotiva, llegó a especular que los programas podrían ser útiles en intervenciones simples y directivas.

Más de medio siglo después, esa intuición encuentra respaldo empírico. Un estudio de la Universidad de Colorado publicado en Frontiers in Psychology mostró que aplicaciones de inteligencia artificial lograban reducir niveles de ansiedad en un 32% en usuarios que las empleaban de manera regular durante ocho semanas. “Lo interesante es que no se trataba solo de un efecto placebo. Hubo cambios en escalas validadas de ansiedad y depresión”, indica la autora principal del trabajo, Margaret Mitchell, experta en ética aplicada a la tecnología, que fue despedida de Google en 2021.

Sin embargo, el entusiasmo nunca estuvo exento de reticencia y cautela. Ya en los años 70, Weizenbaum advirtió sobre el riesgo de “delegar el cuidado emocional en un sistema incapaz de sentir”. Su advertencia resuena hoy, cuando los límites entre acompañamiento tecnológico y la terapia real se vuelven cada vez más difusos. “El atractivo es claro: disponibilidad permanente, bajo costo y anonimato. Pero estas herramientas son loros estocásticos, no terapeutas. Repiten patrones estadísticos sin comprender lo que comunican”, señala Vivas. Los programas conversacionales revelaron dos cosas: que las personas buscan un “otro” –aunque sea artificial– con quien hablar, y que esa ilusión de compañía dice más de nuestra necesidad de escucha que de la capacidad real de la máquina.

Según un informe de la Universidad de Oxford, los sistemas de IA actuales no logran cumplir estándares clínicos básicos en escenarios críticos. “En el 62% de los casos en los que los usuarios reportaron ideas suicidas, los modelos fallaron en ofrecer recomendaciones seguras y derivaciones apropiadas”, explica la investigadora principal, Sarah Bianchi.

La preocupación se replica en los estudios internacionales. Una investigación de la Universidad de Leiden alertó que el 18% de los adolescentes que usaban chatbots de autoayuda reportaban un incremento en sentimientos de soledad. “La simulación de empatía puede dar un alivio inicial, pero también puede reforzar la percepción de aislamiento cuando se descubre que no hay un otro real detrás”, explica el psicólogo clínico y autor del estudio, Thomas van Rooij.

Longo Elía subraya que los sesgos algorítmicos son críticos. “Lo que parece un consejo neutro puede estar atravesado por patrones invisibles que afecten a poblaciones vulnerables”, dice.

Las advertencias también vienen de los organismos internacionales. La Asociación Psicoanalítica Argentina (APA) señaló en un informe reciente que el uso de IA generativa para consejería psicológica “plantea riesgos graves, incluyendo la exposición a sesgos algorítmicos, la falta de confidencialidad y la posibilidad de inducir o agravar patologías psiquiátricas en poblaciones vulnerables”.

Longo Elía coincide: “Ya estamos documentando episodios de ideación suicida, autolesiones y paranoia en jóvenes que establecen vínculos con voces artificiales que parecen humanas, pero no lo son”.

En la opinión pública comienzan a aparecer señales de alarma. Especialistas describieron en el diario alemán Deutsche Welle casos de “psicosis digital” vinculados al uso excesivo de chatbots. El fenómeno, explicaban, puede derivar en delirios donde los usuarios crean que la IA tiene intenciones propias o una relación personal con ellos.

¿Entonces? ¿Pantallas encendidas junto al diván? ¿Registros automáticos de la voz del paciente? ¿Algoritmos que sugieren hipótesis de diagnóstico mientras el terapeuta escucha? “Podemos imaginar múltiples usos de la IA en este tema, como transcripción de sesiones, análisis de grandes volúmenes de datos, detección temprana de problemas, pero siempre como complemento –dice Vivas–. Nunca como sustituto del vínculo humano”. Fernández Álvarez señala que “los mejores terapeutas seguirán siendo quienes combinen ciencia y arte, técnica y humanidad”.

El valor de lo humano aparece como núcleo. Incluso para la máquina. “La subjetividad, la historia personal, la vulnerabilidad del especialista son parte del proceso terapéutico. Ninguna máquina puede simular eso sin caer en lo superficial”, advierte Siri, asistente inteligente desarrollado por Apple.

Longo Elía destaca que el debate no puede eludir la regulación: “La premisa hipocrática ‘ante todo no hagas daño’ debería ser el punto de partida. La psicoeducación y la promoción de un uso responsable tienen que ser objetivos compartidos por escuelas, sistemas de salud, empresas de tecnología y organismos públicos”.

La investigación académica acompaña esta mirada. Un estudio publicado en BMC Psychology sobre el chatbot Friend, diseñado para apoyo psicológico, mostró reducciones de ansiedad entre un 30% y un 35% en usuarios. Sin embargo, los autores remarcaron que la herramienta era eficaz “solo como complemento de la psicoterapia tradicional, nunca como reemplazo”.

Quizá el mayor desafío sea cultural: aprender a usar estas tecnologías sin delegar en ellas lo que nos hace humanos. Porque, como escribió Carl Rogers, “lo más personal es también lo más universal”. El algoritmo puede acompañar, ordenar y hasta advertir, pero la mirada que cura, esa que reconoce en el otro la fragilidad compartida, seguirá siendo irremplazable.

Más Noticias