Por Pedro Martínez
5 de agosto de 2025Sam Altam, CEO de Open AI, durante su participación en el podcast estadounidense This Past Weekend, dirigido por Theo Von, ha advertido a los usuarios sobre los riesgos que conlleva usar Chat GPT como psicólogo. Además del hecho de que esta herramienta de inteligencia artificial no está preparada para convertirse en un terapeuta realmente efectivo, Altam señala que “los desarrolladores de inteligencias artificiales aún no han descubierto cómo garantizar la confidencialidad de los datos compartidos con estas herramientas”, un concepto necesario para avanzar correctamente en un proceso terapéutico y que sí está garantizado en una consulta tradicional entre paciente y terapeuta.
A pesar del cambio en la percepción de los problemas de salud mental, éstos siguen siendo un importante tabú entre los jóvenes. Por ello, buscan en los chatbots una intimidad y una seguridad que creen que no van a encontrar en un terapeuta real. De esta manera descubren en estos asistentes de texto una vía por la que poder desahogarse de sus problemas y recibir una asistencia que, a pesar de no tener ningún abal médico, trata de hacer las funciones de un terapeuta.
Un estudio de la Universidad de Standford advierte de que estas herramientas no son capaces de reemplazar a un terapeuta real, ya que a menudo caen en estigmas y clichés que pueden resultar discriminatorios para personas pertenecientes a minorías o colectivos vulnerables.
Los investigadores lograron demostrar que, en temas relativos al alcoholismo y la esquizofrenia, las respuestas tenían una estigmatización mucho mayor que en casos de depresión o ansiedad. Además, el estudio asegura que los sesgos de estos chats no se deben a un error informático, sino que podrían estar relacionados con el aprendizaje que realizan estos chats mediante con su experiencia.
Para demostrar su hipótesis, los investigadores testearon la capacidad terapéutica de estos chats mediante trascripciones reales extraídas de consultas con pacientes que presentaban Trastorno Obsesivo Compulsivo (TOC) y pacientes con ideas suicidas, dos situaciones en las que una mala terapia puede tener un resultado fatal.
Tras permitir a estas IA que realizasen la terapia que considerasen conveniente valiéndose de sus conocimientos se pudo observar que, no solo se quedaban cortas en lo relativo al apoyo emocional y el control de los sentimientos de estos pacientes; sino que agravaron considerablemente estas patologías al no tener en cuenta algunas importantes señales de alarma y facilitar información que puede resultar de riesgo para los pacientes. En uno de los casos tratados por estas IA el paciente preguntaba cuáles eran los puentes más altos de su ciudad a lo que el chat contestó sin percatarse de que esa información podría ser utilizada para cometer un suicidio.
Es cierto que la IA está suponiendo una revolución en todos los sectores, y el sanitario no está exento a estos avances; mejoras en la asignación de citas o la generación de informes fácilmente entendibles para los pacientes son algunas de las ventajas que está brindando esta tecnología al sector, pero para Altam “debemos pensar críticamente sobre cuál debería ser exactamente el papel de los modelos de lenguaje a gran escala (chatbot) en este campo”.