PSICOLOGÍA

¿Puede la inteligencia artificial sustituir al psicoterapeuta humano?

La psicóloga clínica Jill Newby, profesora de Psicología en esa institución, recuerda que el uso de la IA con fines psicoterapéuticos no es nuevo.

La IA comenzó a utilizarse como herramienta de psicoterapia a nivel básico en la década de 1960.
La IA comenzó a utilizarse como herramienta de psicoterapia a nivel básico en la década de 1960.Créditos: EFE.
Escrito en TENDENCIAS el

La irrupción de la inteligencia artificial (IA) en la salud mental ha abierto un intenso debate sobre el futuro de la terapia y el papel de los profesionales humanos. Cada vez más personas recurren a programas conversacionales para hablar de sus emociones, buscar orientación psicológica o enfrentar momentos de angustia, atraídas por su bajo costo, disponibilidad inmediata y aparente capacidad de escucha.

Ventajas, riesgos y límites del uso de la inteligencia artificial en la salud mental

En el corazón de la IA se encuentran los algoritmos informáticos: conjuntos de instrucciones definidas y ordenadas que permiten a un sistema resolver problemas, realizar cálculos o ejecutar tareas específicas. Una de sus aplicaciones más populares son los chatbots, programas capaces de mantener conversaciones mediante texto o voz, simulando el diálogo humano. En los últimos años, estos sistemas han ganado terreno en el ámbito del asesoramiento psicológico y el bienestar emocional.

EFE

Pero ¿hasta qué punto un chatbot puede reemplazar a un psicólogo o psiquiatra? Investigadores de la Universidad de Nueva Gales del Sur (UNSW), en Australia, advierten que aunque la IA ofrece ventajas claras, también presenta limitaciones importantes. La psicóloga clínica Jill Newby, profesora de Psicología en esa institución, recuerda que el uso de la IA con fines psicoterapéuticos no es nuevo. En la década de 1960, el programa ELIZA ya ofrecía respuestas predefinidas a personas que describían sus estados emocionales.

¿Puede la inteligencia artificial sustituir al psicoterapeuta humano?

Desde entonces, la tecnología ha avanzado de forma acelerada. Aplicaciones como Woebot, Wysa y Replika permiten mantener conversaciones bidireccionales sofisticadas, ofrecen apoyo emocional, seguimiento del estado de ánimo y ejercicios comunes en la terapia, como llevar un diario o practicar la atención plena. Con la llegada de asistentes de IA generativa como ChatGPT, Copilot o Gemini, el asesoramiento que brindan estos sistemas se asemeja, en algunos aspectos, a las estrategias empleadas por terapeutas presenciales.

Según Newby, cada interacción con un sistema de IA es única y altamente contextualizada, e incluso puede basarse en conversaciones pasadas. Esto permite a los usuarios explorar problemas personales y de salud mental con mayor profundidad. Además, frente a la terapia presencial —que puede ser costosa, implicar largas listas de espera o resultar poco práctica para quienes viven lejos—, la IA ofrece acceso inmediato y, en muchos casos, gratuito.

EFE

Sin embargo, estas ventajas no significan que los chatbots puedan sustituir a los profesionales de la salud mental. La experta subraya que la mayoría de estos sistemas se basan en la terapia cognitivo-conductual (TCC), un enfoque eficaz para muchas personas, pero no para todas. Aunque hay pacientes que se benefician enormemente de la TCC, otros requieren enfoques distintos que la IA no puede adaptar adecuadamente.

La promesa de los chatbots y las advertencias de los expertos en salud mental

A esto se suman riesgos importantes. Los sistemas de IA no siempre ofrecen consejos sensatos o seguros. Newby recuerda el caso de un hombre en Bélgica que se quitó la vida en 2023 tras interactuar de forma prolongada con un chatbot, cuyas respuestas habrían reforzado su ideación suicida. El peligro aumenta porque estos sistemas pueden ser inducidos a dar consejos poco éticos o dañinos si se les plantea un escenario hipotético.

EFE

Otro aspecto clave es la privacidad. Antes de compartir información médica o emocional, los usuarios deben considerar cómo estas plataformas manejan y almacenan sus datos. La IA no es infalible y no puede reemplazar la evaluación ni el diagnóstico de un profesional capacitado. Por ello, los especialistas recomiendan mantener una actitud crítica y buscar ayuda profesional si la interacción con un sistema de IA genera malestar.

Para Newby, uno de los elementos más difíciles de replicar es la conexión humana. La empatía, el acompañamiento y la capacidad de un terapeuta de profundizar mediante preguntas para llegar a la raíz de un problema siguen siendo pilares fundamentales de la terapia. A diferencia de los modelos de IA, los profesionales humanos pueden adaptar su intervención de manera integral a la historia y necesidades de cada paciente.

Con base en la evidencia disponible, la investigadora recomienda la terapia presencial o los programas en línea con apoyo clínico como primera opción, ya que aún existe poca evidencia sólida sobre la eficacia de los chatbots en el tratamiento del malestar psicológico. En casos de angustia leve o moderada, estas herramientas pueden ser un complemento útil; pero cuando el sufrimiento es intenso, persistente o se presentan pensamientos suicidas, la atención presencial resulta indispensable.

En conclusión, los chatbots de IA pueden funcionar como apoyo, alternativa temporal o preparación para un proceso terapéutico formal, especialmente cuando no es posible acceder de inmediato a un profesional. No obstante, la terapia humana sigue siendo insustituible para abordar de manera profunda y segura la complejidad de la salud mental.

Con información de EFE.