
Declan nunca habría descubierto que su terapeuta estaba utilizando ChatGPT si no hubiera sido por un fallo técnico. La conexión era inestable durante una de sus sesiones online, así que Declan sugirió que apagaran las cámaras. En su lugar, el terapeuta comenzó a compartir su pantalla por error.
«De repente, estaba viendo cómo usaba ChatGPT», cuenta Declan, de 31 años, residente en Los Ángeles. «Escribía lo que yo decía en ChatGPT y luego resumía o seleccionaba respuestas».
Declan se quedó tan sorprendido que no dijo nada, y durante el resto de la sesión fue testigo en tiempo real del análisis de ChatGPT deslizándose por la pantalla de su terapeuta. La sesión se volvió aún más surrealista cuando Declan empezó a repetir las respuestas de ChatGPT, adelantándose a su terapeuta.
«Me convertí en el mejor paciente del mundo», dice. «Porque ChatGPT decía cosas como: «¿Has considerado que tu forma de pensar podría ser demasiado extrema?» Y yo respondía: «Vaya, creo que estoy teniendo pensamientos muy extremos», y [mi terapeuta] decía: «Exacto». Estoy seguro de que fue su sesión soñada.»
Una de las preguntas que se hacía Declan era: «¿Esto es legal?» Cuando planteó el incidente en la siguiente sesión «fue súper incómodo, como una ruptura rara», dice Declan. El terapeuta lloró. Le explicó que sentía que habían llegado a un punto muerto y que necesitaba buscar respuestas en otro lugar. «Aun así, me cobraron esa sesión», dice Declan, riéndose.
El auge de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) en los últimos años ha tenido consecuencias inesperadas en el ámbito de la psicoterapia, principalmente porque cada vez más personas están sustituyendo a los terapeutas humanos por herramientas como ChatGPT. Pero de lo que no se está hablando es de cómo algunos terapeutas están integrando la inteligencia artificial en su práctica. Como en muchas otras profesiones, la IA generativa promete mejoras tentadoras en eficiencia, pero su adopción conlleva el riesgo de comprometer datos sensibles de los pacientes y de socavar una relación en la que la confianza es fundamental.
Sentimientos sospechosos
Declan no es el único, y puedo confirmarlo por experiencia personal. Un correo reciente de mi terapeuta, que parecía más largo y pulido de lo normal, hizo que me alegrara al principio. Era un mensaje amable y que validaba mis sentimientos, y su extensión me hizo pensar que se había tomado el tiempo de reflexionar sobre todos los puntos de mi correo (que era bastante delicado).
Sin embargo, al examinarlo más detenidamente, el correo me pareció algo extraño. Usaba una fuente nueva, y el texto mostraba varios indicios típicos de la inteligencia artificial, como el uso generoso del guion largo americanizado (ambas somos del Reino Unido), su característico estilo impersonal y la costumbre de responder punto por punto a lo planteado en el mensaje original.
Mis sentimientos positivos se desvanecieron rápidamente, ya aparecieron la decepción y la desconfianza, al darme cuenta de que probablemente ChatGPT había intervenido en la redacción del mensaje, lo cual mi terapeuta confirmó cuando se lo pregunté.
A pesar de que me aseguró que simplemente dicta los correos más largos a la IA para que los redacte, seguía decepcionada pensando hasta qué punto era ella, y no el bot, quien realmente estaba detrás del mensaje respondiendo a los sentimientos que yo le había expresado a ella. Tampoco pude quitarme del todo la sospecha de que quizá había copiado y pegado mi correo, altamente personal, directamente en ChatGPT.
Como pude comprobar al buscar en internet, no soy la única que ha experimentado situaciones parecidas. Encontré varios ejemplos de personas que recibieron lo que sospechaban que eran mensajes generados por inteligencia artificial procedentes de sus terapeutas. Muchos, incluido Declan, acudieron a Reddit en busca de apoyo emocional y consejos.
También lo hizo Hope, de 25 años, que vive en la costa este de EE UU y había enviado un mensaje a su terapeuta para hablarle de la muerte de su perro. Recibió una rápida respuesta que se habría sentido bastante considerada y reconfortante si no llega a ser porque el mensaje mantenía la referencia al prompt: «Aquí tienes una versión más humana y sentida, con un tono suave y conversacional.»
Hope cuenta que se sintió «sinceramente muy sorprendida y confundida». «Fue una sensación muy extraña», dice. «Luego empecé a sentirme algo traicionada… Afectó a la confianza que tenía en ella». «Esto fue especialmente problemático», añade, porque «una de las razones por las que la veía era por mis problemas para confiar en las personas».
Hope, que creía que su terapeuta era competente y empática, «nunca habría sospechado que sintiera la necesidad de usar IA», afirma. Su terapeuta estaba arrepentida cuando lo hablaron, y le explicó que, como nunca había tenido una mascota, recurrió a la inteligencia artificial para encontrar la forma adecuada de expresar sus sentimientos.
Un dilema muy revelador
Puede que haya cierto fundamento en el argumento de que la inteligencia artificial podría ayudar a los terapeutas a comunicarse con sus pacientes. Un estudio publicado en PLOS Mental Health en 2025 pidió a varios terapeutas que utilizaran ChatGPT para responder a casos ficticios que simulaban problemas habituales en terapia. El resultado fue que no solo es que los 830 participantes fueran incapaces de distinguir una respuesta humana de las generadas por la IA, sino que además, las respuestas generadas por al IA fueron valoradas como más ajustadas a las buenas prácticas terapéuticas.
Sin embargo, cuando los participantes sospechaban que las respuestas habían sido escritas por ChatGPT, las puntuaban más bajo. Las respuestas generadas por ChatGPT pero atribuidas por error a terapeutas humanos recibieron las mejores valoraciones.
De forma similar, investigadores de la Universidad de Cornell descubrieron en un estudio de 2023 que los mensajes generados por IA pueden aumentar la sensación de cercanía y cooperación entre interlocutores, pero solo si el receptor no sabe que hay una IA detrás. Basta con sospechar su uso para que la buena disposición se desvanezca rápidamente.
«La gente valora la autenticidad, especialmente en psicoterapia», afirma Adrian Aguilera, psicólogo clínico y profesor en la Universidad de California, Berkeley. «Creo que [usar IA] puede hacer que uno sienta que no se está tomando en serio la relación». «¿Le respondería con ChatGPT a mi mujer o a mis hijos? No parecería algo verdadero», añade.
En 2023, durante los primeros días de la inteligencia artificial generativa, el servicio de terapia online Koko llevó a cabo un experimento clandestino con sus usuarios, mezclando respuestas generadas por GPT-3 con otras redactadas por humanos. Descubrieron que los usuarios tendían a valorar más positivamente las respuestas generadas por IA. Sin embargo, cuando se supo que los usuarios habían sido objeto de un experimento sin saberlo, la indignación fue inmediata.
La plataforma de terapia online BetterHelp también ha sido objeto de acusaciones por el uso de IA para redactar las respuestas de sus terapeutas. En una publicación en Medium, el fotógrafo Brendan Keen contó que su terapeuta de BetterHelp admitió haber utilizado inteligencia artificial en sus mensajes, lo que le provocó «una intensa sensación de traición» y una preocupación persistente de que su privacidad había sido vulnerada, pese a las explicaciones recibidas. Poco después, decidió poner fin a la terapia.
Un portavoz de BetterHelp declaró que la empresa «prohíbe a los terapeutas divulgar cualquier información personal o médica de los usuarios a herramientas de inteligencia artificial de terceros, o utilizar IA para redactar mensajes si existe la posibilidad, directa o indirecta, de que se pueda identificar a alguien».
Todos estos casos tienen en común el uso de IA sin previo aviso. Adrián Aguilera cree que los terapeutas, que a menudo trabajan con el tiempo justo, pueden beneficiarse de los modelos de lenguaje, pero insiste en que la transparencia es clave. «Hay que ser claros y decir: «Oye, voy a usar esta herramienta para esto, esto y esto», y explicar por qué”, afirma. Así, los pacientes reciben los mensajes generados por IA con ese contexto previo, en lugar de pensar que su terapeuta «está intentando ocultarlo».
Los psicólogos suelen trabajar al límite de su capacidad, y los niveles de agotamiento en la profesión son elevados, según una investigación realizada en 2023 por la Asociación Americana de Psicología. Ese contexto hace evidente el atractivo de las herramientas basadas en IA.
Pero la falta de transparencia puede dañar la confianza de forma irreversible. Hope decidió seguir viendo a su terapeuta, aunque poco después dejó de trabajar con ella por motivos que, aunque según dice, no estaban relacionados, no podía evitar acordarse del «incidente con la IA» cada vez que la veía, afirma.
Poniendo en riesgo la privacidad del paciente
Más allá del problema de la transparencia, muchos terapeutas son reacios a utilizar modelos de lenguaje como los LLM desde el principio, explica Margaret Morris, psicóloga clínica y profesora asociada en la Universidad de Washington.
«Creo que estas herramientas pueden ser muy útiles para aprender», señala, recordando que los terapeutas deben seguir desarrollando su experiencia a lo largo de su carrera. «Pero creo que hay que tener muchísimo cuidado con los datos de los pacientes«. Morris califica la experiencia de Declan como «alarmante».
Los terapeutas deben tener en cuenta que los chatbots de IA de uso general, como ChatGPT, no están aprobados por la Administración de Alimentos y Medicamentos de EE UU (FDA) ni cumplen con la normativa HIPAA, advierte Pardis Emami-Naeini, profesora adjunta de informática en la Universidad de Duke, que ha investigado las implicaciones de privacidad y seguridad de los LLM en contextos sanitarios. (HIPAA es un conjunto de normas federales estadounidenses que protegen la información médica sensible de los ciudadanos).
«Esto genera riesgos importantes para la privacidad del paciente si se revela cualquier dato o si la IA puede inferirlo», afirma.
En un estudio reciente, Emami-Naeini descubrió que muchos usuarios creen erróneamente que ChatGPT cumple con la normativa HIPAA, lo que genera una confianza injustificada en la herramienta. «Imagino que algunos terapeutas también comparten esa idea equivocada», añade.
Declan, que se considera una persona relativamente abierta, dice que tampoco le hundió el descubrir que su terapeuta estaba utilizando ChatGPT. «La verdad que no pienso: «Dios mío, tengo secretos oscuros y profundos que ahora están en internet»», comenta. Aun así, la situación le resultó violenta: «Imagino que, si estuviera pensando en suicidarme, o si tomara drogas, o si estuviera engañando a mi novia… no me gustaría que lo supiera ChatGPT».
A la hora de usar IA para redactar correos electrónicos, «no basta con eliminar identificadores evidentes como nombres y direcciones», advierte Emami-Naeini. «La información sensible puede deducirse a partir de detalles que, en principio, no lo parecen».
Y añade: «Identificar y reformular todos los datos potencialmente sensibles requiere tiempo y conocimiento, lo cual entra en conflicto con la supuesta comodidad de usar herramientas de IA. En todos los casos, los terapeutas deberían informar a sus pacientes de que utilizan IA y pedirles consentimiento».
Cada vez más empresas, como Heidi Health, Upheal, Lyssn y Blueprint, están comercializando herramientas especializadas para terapeutas, como asistentes de IA para tomar notas, formación o transcripción de sesiones. Estas compañías aseguran que cumplen con la normativa HIPAA y que almacenan los datos de forma segura, mediante cifrado y técnicas de seudonimización cuando es necesario. Pero muchos profesionales siguen mostrando cautela ante las implicaciones para la privacidad, especialmente en los servicios que requieren grabar sesiones completas.
«Incluso si se mejoran las medidas de protección de la privacidad, siempre existe algún riesgo de fuga de información o de usos secundarios de los datos», concluye Emami-Naeini.
 
				





 
          



