
Silicon Valley imagina un futuro en el que los modelos de IA serán tan empáticos que llegarán a ser nuestros terapeutas. Proporcionarán atención de salud mental a millones de personas, sin la necesidad de cumplir con los requisitos que sí cumplen los terapeutas de carne y hueso, como la necesidad de tener títulos universitarios, seguros por negligencia profesional. Aquí abajo en la Tierra ocurre algo muy diferente.
La semana pasada publicamos una noticia sobre personas que descubrieron que sus terapeutas utilizaban ChatGPT en secreto durante las sesiones de consulta. En algunos casos, ni siquiera fue algo sutil: un paciente vio cómo su psicólogo escribía sus pensamientos a ChatGPT en tiempo real mientras compartía accidentalmente su pantalla durante una cita online. El terapeuta repetía las respuestas que le sugería ChatGPT como un loro.
Es una de mis historias favoritas de IA últimamente, probablemente porque captura muy bien el caos que puede desatarse cuando la gente utiliza la IA tal y como las empresas tecnológicas han recomendado no hacerlo.
Como señala la autora de la noticia, Laurie Clarke, no es una locura que la IA pueda ser útil desde el punto de vista terapéutico. A principios de este año, escribí sobre el primer ensayo clínico de un bot de IA creado específicamente para la terapia. Los resultados fueron bastante buenos, aunque el uso de la IA por parte de los terapeutas sin haber sido evaluados previamente para tratar la salud mental es algo muy diferente. Mantuve una conversación con Clarke para saber más sobre lo que había descubierto.
La verdad es que me fascinó que los pacientes comentaran a sus terapeutas que les habían descubierto usando IA clandestinamente.
Debo decir que me fascinó que la gente denunciara a sus terapeutas tras descubrir que estaban utilizando IA de forma encubierta. ¿Cómo interpretaste las reacciones de estos terapeutas? ¿Estaban tratando de ocultarlo?
En ninguno de los casos mencionados en el artículo el terapeuta había informado previamente a sus pacientes sobre el uso que hacía de la IA. Así que, independientemente de si intentaban ocultarlo explícitamente o no, lo cierto es que nadie les había informado, por lo que podía parecer que estaban tratando de ocultarlo. Creo que, por esta razón, una de las principales conclusiones que saqué al escribir el artículo fue que los terapeutas deben informar al paciente cuando vayan a utilizar la IA y del uso que van a hacer de ella. Si no lo hacen es cuando al paciente le surgen una serie de preguntas incómodas, corriendo el riesgo irremediable de romper la relación de confianza que habían construido hasta entonces.
En los ejemplos que has visto, ¿los terapeutas recurren a la IA simplemente para ahorrar tiempo? ¿O realmente buscan que la IA les ofrezca una nueva perspectiva sobre lo que le preocupa a su paciente?
Algunos ven la IA como una forma de ahorrar tiempo. Varios terapeutas dicen que tomar notas durante la sesión es la pesadilla de sus vidas, por eso, creo que hay cierto interés en la productividad que pueden aportar las herramientas basadas en IA a la hora de hacer ciertas tarreas rutinarias, como las notas, más rápidamente. Sin embargo, la mayoría de los terapeutas con los que he hablado se han mostrado muy escépticos sobre el uso de la IA para obtener consejos sobre cómo tratar a un paciente. Dijeron que sería mejor consultar a superiores o compañeros, o estudiar casos prácticos de artículos académicos. También se mostraron muy cautelosos, como es comprensible, a la hora de introducir datos confidenciales en estas herramientas.
Existen pruebas de que la IA puede ofrecer terapias más estandarizadas y «regladas», como la ‘TCC’, o terapia cognitivo-conductual, con cierta eficacia. Por lo tanto, es posible que pueda resultar útil para eso. Pero se trata de una IA diseñada específicamente para ese fin, no de herramientas de uso general como ChatGPT.
¿Qué pasaría si esto saliera mal? ¿Cómo ven este tema los grupos éticos y legisladores?
En la actualidad, organismos profesionales como la Asociación Americana de Terapeutas desaconsejan el uso de herramientas de IA para diagnosticar a pacientes y se estima que en el futuro habrá regulaciones más estrictas que lo prohíban. Los estados de Nevada e Illinois (EE UU), por ejemplo, han aprobado recientemente leyes que prohíben el uso de la IA en la toma de decisiones terapéuticas. Otros estados podrían seguir su ejemplo.
Sam Altman, de OpenAI, dijo el mes pasado que «mucha gente utiliza ChatGPT como algo parecido a un psicólogo» y que, en su opinión, eso es algo positivo. ¿Crees que las empresas tecnológicas están prometiendo demasiado sobre la capacidad de la IA para ayudarnos?
Me parece que las empresas tecnológicas están fomentando sutilmente este uso de la IA porque, claramente, es una vía a través de la cual otras partes interesadas pueden crear un vínculo con sus productos. Creo que el problema principal es que lo que la gente obtiene de estas herramientas no es realmente «consulta terapéutica» en ningún sentido. Una buena terapia va mucho más allá de calmar y validar todo lo que dice alguien. Nunca en mi vida he esperado con ilusión una sesión de terapia real, en persona. A menudo son muy incómodas e incluso angustiosas. Pero forma parte del objetivo. El terapeuta debe desafiarte, sacarte de tu caparazón y tratar de comprenderte. ChatGPT no puede hacer nada de eso.





