El desarrollo de sistemas de inteligencia artificial que además permiten conversar, como ChatGPT, han abierto un debate creciente en torno a su utilización en el ámbito de la salud mental.

La posibilidad de mantener conversaciones fluidas, recibir orientación y expresar emociones en un entorno digital accesible las 24 horas plantea interrogantes sobre su papel como “psicólogo virtual” y sobre los límites éticos y profesionales de esta práctica.

ChatGPT y herramientas similares ofrecen un canal inmediato de comunicación para quienes atraviesan momentos de estrés, ansiedad o soledad. La inmediatez y disponibilidad constante pueden parecer útiles en situaciones de urgencia subjetiva, cuando una persona necesita expresar lo que siente sin esperar una cita profesional. Además, el anonimato favorece que usuarios reticentes a acudir a terapia presencial se animen a verbalizar sus emociones.

Otra de sus aparentes potencialidades es la capacidad de proporcionar información psicoeducativa accesible. ChatGPT, o muchas otras IA´s pueden explicar técnicas de relajación, pautas de autocuidado o estrategias básicas de afrontamiento, lo que parecería estar contribuyendo a democratizar el acceso a recursos de bienestar emocional.

Sin embargo, el uso de ChatGPT como psicólogo conlleva serias limitaciones. En primer lugar, no es un profesional sanitario, y aunque pueda simular empatía o dar consejos, carece de la formación clínica y de la supervisión ética necesarias para realizar diagnósticos, aplicar terapias validadas o acompañar procesos psicológicos complejos. Confiar exclusivamente en este tipo de herramientas puede retrasar la búsqueda de ayuda profesional y agravar la situación de la persona usuaria.

Otro riesgo importante es la gestión de la privacidad. Aunque los desarrolladores aplican protocolos de protección de datos, la interacción con sistemas digitales siempre entraña la posibilidad de vulnerabilidades, lo que puede comprometer la confidencialidad de la información compartida. Además, los algoritmos que sustentan estas herramientas pueden reproducir sesgos, generando respuestas poco adaptadas o incluso contraproducentes para determinados perfiles culturales o sociales.

La clave está en concebir a ChatGPT no como un sustituto de la psicoterapia, sino como un recurso complementario de carácter orientativo ya que es cierto que puede facilitar información sobre teléfonos o direcciones de recursos especializados a los que sí poder recurrir para recibir una verdadera ayuda profesional.

Nos encontramos ante el desafío de integrar estas tecnologías en el campo de la salud mental de manera responsable, aprovechando sus ventajas, pero sobre todo sin perder de vista la importancia insustituible del acompañamiento humano.