Por Santiago Melo
1 de octubre de 2025Una sola sesión con un chatbot terapéutico diseñado con ChatGPT-4o puede ayudar a mejorar la comunicación y el bienestar en parejas con conflictos leves, según uno de los primeros ensayos clínicos realizados sobre inteligencia artificial aplicada a la salud emocional. El estudio, publicado en PLOS Mental Health y desarrollado por las universidades de Lausana (Suiza) y Roehampton (Reino Unido), evaluó a 258 personas en relaciones sentimentales que atravesaban dificultades no graves.
La herramienta analizada, bautizada como “Amanda”, fue entrenada para actuar como una terapeuta empática de relaciones. Los participantes interactuaron con ella durante al menos 20 veces, mientras que otro grupo realizó una tarea de escritura reflexiva guiada. En ambos casos, se registraron mejoras similares en la percepción del conflicto, la relación y el bienestar individual, tanto al finalizar la sesión como dos semanas después.
Aunque los resultados reflejan un impacto positivo, los psicólogos piden cautela ante la creciente popularidad de estas herramientas. “Una interacción puntual con un chatbot puede producir alivio inmediato y sensación de claridad, pero eso no equivale a una terapia clínica”, explica Ana Asensio, psicóloga y doctora en Neurociencia, miembro del Colegio Oficial de la Psicología de Madrid. A su juicio, la inteligencia artificial puede ofrecer un apoyo accesible, pero “nunca reemplazará el vínculo humano, la escucha profunda y el proceso real de cambio que requiere la psicoterapia”.
La psicóloga también apunta a limitaciones importantes: los chatbots carecen de historial clínico, no contextualizan la evolución de la pareja y no pueden contener emocionalmente una crisis. “No acompañan un llanto, no interpretan silencios, ni detectan situaciones de riesgo”, subraya.
Además, señala que uno de los riesgos es la confusión del usuario, que puede pensar que está “trabajando su relación” solo por hablar con una IA. “Eso puede retrasar la ayuda profesional, fomentar la dependencia tecnológica o pasar por alto síntomas graves que un terapeuta humano sí sabría reconocer”, advierte Ana Asensio.
Pese a las limitaciones, la psicóloga considera que la inteligencia artificial podría tener un papel útil como complemento, por ejemplo, entre sesiones clínicas, para ejercicios de autoobservación o desahogo puntual. “Pero no en casos de violencia, depresión, trauma o conflictos profundos de pareja”, puntualiza.
Los autores del estudio reconocen que su trabajo tiene margen de mejora y no evalúa el efecto a largo plazo. Aun así, sostienen que herramientas como “Amanda” abren nuevas posibilidades para ampliar el acceso al apoyo emocional y piden más investigaciones en contextos clínicos.