
Vivimos en plena crisis global de salud mental. Más de mil millones de personas en todo el mundo padecen algún trastorno mental, según la Organización Mundial de la Salud. La prevalencia de la ansiedad y la depresión aumenta en numerosos grupos demográficos, especialmente entre los jóvenes, y cada año el suicidio se cobra cientos de miles de vidas a escala global.
Ante la necesidad evidente de contar con servicios de salud mental accesibles y asequibles, no resulta extraño que muchas personas hayan dirigido la mirada hacia la inteligencia artificial en busca de alivio. Millones de usuarios ya recurren activamente a chatbots populares como ChatGPT, de OpenAI, o Claude, de Anthropic, así como a aplicaciones especializadas en psicología como Wysa o Woebot. A mayor escala, los investigadores están explorando el potencial de la IA para monitorizar y recopilar observaciones conductuales y biométricas mediante dispositivos portátiles e inteligentes, analizar grandes volúmenes de datos clínicos en busca de nuevos patrones y apoyar a los profesionales de la salud mental para prevenir el desgaste profesional.
Sin embargo, por ahora, este experimento a gran escala y en gran medida sin supervisión ha arrojado resultados dispares. Muchas personas han encontrado consuelo en chatbots basados en modelos de lenguaje grandes (LLM), y algunos expertos ven en ellos una promesa como terapeutas. Otros usuarios, en cambio, han caído en espirales delirantes alimentadas por los caprichos alucinatorios y la adulación sin aliento de la IA. El balance más trágico lo aportan varias familias que han denunciado que chatbots contribuyeron al suicidio de seres queridos, lo que ha dado lugar a demandas judiciales contra las empresas responsables de las herramientas. En octubre, el consejero delegado de OpenAI, Sam Altman, reveló en una entrada de su blog que el 0.15% de los usuarios de ChatGPT “mantiene conversaciones que incluyen indicadores explícitos de posibles planes o intenciones suicidas”. Eso equivale, aproximadamente, a un millón de personas que cada semana comparten ideaciones suicidas con uno solo de estos sistemas.
Las consecuencias reales de la llamada terapia con IA afloraron con fuerza en 2025, cuando se acumuló un volumen crítico de relatos sobre relaciones entre humanos y chatbots, la fragilidad de las salvaguardas en muchos modelos de lenguaje y los riesgos de compartir información profundamente personal con productos desarrollados por corporaciones que tienen incentivos económicos para recopilar y monetizar datos tan sensibles.
Varios autores anticiparon este punto de inflexión. Sus oportunos libros nos recuerdan que, aunque el presente se perciba como una sucesión vertiginosa de avances, escándalos y desconcierto, este momento desorientador hunde sus raíces en historias más profundas de cuidado, tecnología y confianza.
Los modelos de lenguaje grandes suelen describirse como “cajas negras”, porque nadie sabe con precisión cómo generan sus respuestas. Los mecanismos internos que guían sus resultados son opacos debido a la complejidad de los algoritmos y a la inmensidad de los datos con los que se entrenan. En el ámbito de la salud mental, el cerebro humano también se define a menudo como una “caja negra”, por razones análogas. La psicología, la psiquiatría y disciplinas afines lidian desde hace décadas con la imposibilidad de observar con claridad lo que ocurre dentro de la mente ajena, y mucho menos de identificar las causas exactas del malestar emocional.
Hoy, estas dos cajas negras interactúan entre sí, generando bucles de retroalimentación imprevisibles que pueden dificultar aún más la comprensión del origen de los problemas de salud mental y de las posibles soluciones. La inquietud que suscitan estos avances está ligada al desarrollo explosivo reciente de la IA, pero también reactiva advertencias formuladas hace décadas por pioneros como Joseph Weizenbaum, científico del MIT, que ya en los años sesenta se mostró contrario a la terapia informatizada.

Dr. Bot: Why Doctors Can Fail Us— and How AI Could Save Lives Charlotte Blease YALE UNIVERSITY PRESS, 2025
Charlotte Blease, filósofa especializada en medicina, defiende el punto de vista optimista en Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives. Su libro analiza el impacto potencialmente positivo de la IA en distintos campos médicos. Sin perder de vista los riesgos (y advirtiendo de que quienes esperen “una carta de amor entusiasta a la tecnología” quedarán decepcionados), Blease sostiene que estos sistemas pueden aliviar tanto el sufrimiento de los pacientes como el agotamiento del personal sanitario.
“Los sistemas de salud se están desmoronando bajo la presión de los pacientes”, escribe Blease. “Más carga sobre menos médicos crea el caldo de cultivo perfecto para los errores”, y, “con la evidente escasez de médicos y el aumento de las listas de espera para los pacientes, muchos de nosotros nos sentimos profundamente frustrados”.
Blease considera que la IA no solo puede reducir la enorme carga de trabajo de los profesionales, sino también mitigar tensiones históricas entre algunos pacientes y quienes los atienden. A menudo, explica, las personas evitan acudir a la consulta por intimidación o por miedo a ser juzgadas, algo especialmente frecuente en quienes afrontan problemas de salud mental. La IA, sostiene, podría facilitar que más personas se animen a compartir sus inquietudes.
Pero es consciente de que estas supuestas ventajas deben sopesarse con importantes inconvenientes. Un estudio publicado en 2025 advierte, por ejemplo, de que los terapeutas basados en IA pueden ofrecer respuestas incoherentes o incluso peligrosas a los usuarios. También plantean preocupaciones en materia de privacidad, ya que las empresas tecnológicas no están sometidas a los mismos estándares de confidencialidad y normas HIPAA que los terapeutas con licencia.
Aunque Blease es una experta en este campo, su motivación para escribir el libro también es personal. Tiene dos hermanos con una forma incurable de distrofia muscular, y uno de ellos tuvo que esperar décadas hasta recibir un diagnóstico. Durante la redacción de su obra, además, perdió a su pareja por cáncer y a su padre por demencia en un lapso devastador de apenas seis meses. “Fui testigo en primera persona del talento extraordinario de los médicos y de la humanidad de los profesionales sanitarios”, escribe. “Pero también vi de cerca cómo la atención puede fallar”.
The Silicon Shrink: How Artificial Intelligence Made the World an Asylum
Daniel Oberhaus
MIT PRESS, 2025
Una tensión similar atraviesa el absorbente libro de Daniel Oberhaus The Silicon Shrink: How Artificial Intelligence Made the World an Asylum. El punto de partida es una tragedia íntima: el suicidio de su hermana menor. Mientras Oberhaus llevaba a cabo el “proceso de duelo típico del siglo XXI” de revisar sus restos digitales, se preguntaba si la tecnología podría haber aliviado la carga de los problemas psiquiátricos que la habían atormentado desde la infancia.
“Parecía posible que todos esos datos personales contuvieran pistas valiosas que los profesionales de su salud mental podrían haber utilizado para ofrecer un tratamiento más eficaz”, escribe. “¿Y si los algoritmos del teléfono o del ordenador portátil de mi hermana hubieran usado estos datos para entender cuándo estaba en peligro? ¿Habría permitido una intervención a tiempo que le salvara la vida? ¿Lo habría querido ella, aunque así fuera?”
Este concepto del »fenotipado digital», en el que se podría analizar el comportamiento digital de una persona en busca de señales de angustia o enfermedad, resulta elegante en el plano teórico. Sin embargo, puede volverse problemática al integrarse en el ámbito de la inteligencia artificial psiquiátrica, o ‘’PAI’’, un campo que va mucho más allá de la terapia mediante chatbots.
Oberhaus subraya que esas pistas digitales podrían incluso agravar los problemas ya existentes de la psiquiatría contemporánea, una disciplina que sigue sin tener certezas sólidas sobre las causas profundas de los trastornos mentales. A su juicio, la llegada de la PAI es “el equivalente lógico de injertar la física en la astrología”. En otras palabras, los datos generados por el fenotipado digital son tan precisos como las mediciones astronómicas, pero se integran en un marco teórico (en este caso, la psiquiatría) que, como la astrología, se apoya en supuestos poco fiables.
Oberhaus, que utiliza la expresión ‘’swipe psychiatry’’ para describir la externalización de decisiones clínicas a modelos de lenguaje a partir de datos conductuales, considera que este enfoque no resuelve los dilemas estructurales de la psiquiatría. Es más, podría agravarlos al provocar que las habilidades y el criterio de los terapeutas humanos se erosionen a medida que aumenta su dependencia de sistemas automatizados.
El autor recurre también a los manicomios del pasado (donde los pacientes institucionalizados perdían la libertad, la privacidad y la dignidad) como advertencia de una forma más sutil de cautiverio digital que podría derivarse de la PAI. Los usuarios de LLM ya sacrifican intimidad al compartir información sensible con chatbots cuyos operadores la recopilan y monetizan, alimentando una nueva economía de la vigilancia. Cuando la complejidad de la vida interior se reduce a flujos de datos diseñados para el análisis algorítmico, la libertad y la dignidad quedan en juego.
Los terapeutas de IA, advierte Oberhaus, corren el riesgo de aplanar la experiencia humana hasta convertirla en patrones de predicción, sacrificando la atención íntima y personalizada que se espera de un terapeuta tradicional. “La lógica de la PAI nos conduce hacia un futuro en el que todos podríamos acabar siendo pacientes de un asilo algorítmico gestionado por vigilantes digitales”, escribe. “En ese asilo no hacen falta barrotes ni habitaciones acolchadas, porque no existe la posibilidad de escapar. El asilo ya está en todas partes: en casa y en el trabajo, en las escuelas y los hospitales, en los juzgados y los cuarteles. Allí donde haya conexión a internet, el asilo está esperando”.

Chatbot Therapy:
A Critical Analysis of
AI Mental Health Treatment
Eoin Fullam
ROUTLEDGE, 2025
Eoin Fullam, investigador especializado en el cruce entre tecnología y salud mental, coincide en varias de estas preocupaciones en Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment. Este estimulante manual académico analiza los supuestos en los que se basan los tratamientos automatizados de los chatbots de IA y cómo los incentivos capitalistas podrían corromper este tipo de herramientas.
Fullam observa que la mentalidad capitalista que impulsa muchas tecnologías emergentes “a menudo desemboca en prácticas empresariales cuestionables, ilegítimas o incluso ilegales, en las que los intereses de los clientes son secundarios frente a las estrategias de dominio del mercado”.
Eso no significa que los creadores de bots terapéuticos “vayan inevitablemente a llevar a cabo actividades maliciosas contrarias a los intereses de los usuarios en su afán por dominar el mercado” escribe Fullam.
Pero señala que el éxito de la terapia con IA depende de los impulsos inseparables de ganar dinero y curar a las personas. En ese esquema, la explotación y la terapia se retroalimentan. Cada sesión digital de terapia produce datos, y esos datos alimentan el sistema que obtiene beneficios mientras los usuarios, sin remuneración, buscan alivio. Cuanto más eficaz parece el tratamiento, más se afianza el ciclo, difuminando la frontera entre cuidado y mercantilización. “Cuanto más se benefician los usuarios de la aplicación en términos terapéuticos o de cualquier otra intervención en salud mental”, escribe, “más profunda es la explotación a la que se someten”.

Sike
Fred Lunzer
CELADON BOOKS, 2025
Esta sensación de ouroboros económico y psicológico (la serpiente que se muerde la cola) funciona como metáfora central en Sike, la novela debut de Fred Lunzer, un autor con experiencia en investigación en inteligencia artificial.
Presentada como “la historia de un chico conoce a una chica que conoce a psicoterapeuta de IA”, Sike sigue a Adrian, un joven londinense que se gana la vida escribiendo letras de rap para otros, en su relación con Maquie, una ejecutiva con un talento especial para identificar tecnologías lucrativas en fase beta.
El título hace referencia a un llamativo terapeuta comercial de IA llamado Sike, integrado en unas gafas inteligentes, que Adrian utiliza para interrogar sus innumerables ansiedades. “Cuando me suscribí a Sike configuramos mi panel de control, una gran pantalla negra, parecida a la cabina de un avión, que mostraba mis ‘constantes vitales’ diarias”, relata el protagonista. “Sike puede analizar cómo caminas, cómo miras a los ojos, de qué hablas, cómo te vistes, cada cuánto meas, cagas, te ríes, lloras, besas, mientes, te quejas o toses”.
En otras palabras, Sike es el máximo fenotipador digital, que analiza de forma constante y exhaustiva todo lo que forma parte de las experiencias diarias de un usuario. Con un giro significativo, Lunzer decide convertir este terapeuta en un producto de lujo, reservado a suscriptores capaces de asumir una cuota mensual de 2.000 libras.
Gracias al dinero obtenido por su contribución a una canción de éxito, Adrian acaba dependiendo de Sike como mediador de confianza entre su mundo interior y el exterior. La novela explora los impactos de la aplicación en el bienestar de las élites económicas, siguiendo a personas adineradas que se comprometen voluntariamente con una versión boutique del asilo digital descrito por Oberhaus.
El único peligro tangible que aparece en Sike tiene que ver con un huevo japonés de tortura (mejor no preguntar). La novela evita extrañamente las repercusiones distópicas más amplias de su tema en favor de conversaciones ebrias en restaurantes elegantes y cenas de élite.
El ascenso fulgurante del terapeuta de IA resulta sorprendentemente futurista, como si perteneciera a un tiempo venidero en el que las calles se limpian solas y viajamos por el mundo a través de tubos neumáticos.
El creador de Sike es, a ojos de Adrian, simplemente “un tipo estupendo”, pese a su visión tecno-mesiánica de entrenar la aplicación para aliviar los males psicológicos de países enteros. Siempre parece que va a pasar algo, pero al final nunca pasa nada, lo que deja al lector con una sensación de inconclusión.
Aunque Sike transcurre en el presente, hay algo en el repentino auge de los terapeutas de IA (tanto en la vida real como en la ficción) que resulta sorprendentemente futurista, como si perteneciera a un tiempo venidero en el que las calles se limpian solas y viajamos por el mundo a través de tubos neumáticos. Sin embargo, esta convergencia entre salud mental e inteligencia artificial lleva más de medio siglo gestándose. El querido astrónomo Carl Sagan, por ejemplo, imaginó en su día una “red de terminales psicoterapéuticos informáticos, algo parecido a una serie de grandes cabinas telefónicas” que podrían atender la creciente demanda de servicios de salud mental.
Oberhaus señala que una de las primeras encarnaciones de una red neuronal entrenable, conocida como el Perceptrón, no fue obra de un matemático, sino de un psicólogo, Frank Rosenblatt, que la desarrolló en 1958 en el Cornell Aeronautical Laboratory. Ya en los años sesenta, el potencial de la IA en este ámbito era ampliamente reconocido y dio lugar a los primeros psicoterapeutas computacionales, como el guion DOCTOR que funcionaba sobre el chatbot ELIZA, desarrollado por Joseph Weizenbaum, una figura recurrente en los tres libros de no ficción citados en este artículo.
Weizenbaum, fallecido en 2008, se mostró profundamente preocupado por la posibilidad de la terapia informatizada. “Los ordenadores pueden emitir juicios psiquiátricos”, escribió en 1976 en su libro Computer Power and Human Reason. “Pueden lanzar monedas de forma mucho más sofisticada que el ser humano más paciente. La cuestión es que no deberían asumir ese tipo de tareas. Puede que en algunos casos lleguen incluso a decisiones «correctas», pero siempre y necesariamente sobre bases que ningún ser humano debería estar dispuesto a aceptar”.
Es una advertencia que conviene tener presente. A medida que los terapeutas de IA se despliegan a gran escala, se repite una dinámica familiar: herramientas concebidas con intenciones aparentemente benignas acaban integradas en sistemas capaces de explotar, vigilar y moldear el comportamiento humano. En un intento frenético de abrir nuevas oportunidades para los pacientes que necesitan con urgencia apoyo psicológico, es posible que estemos cerrando otras puertas tras ellos.
Becky Ferreira es periodista científica y vive en el norte del estado de Nueva York. Es autora de First Contact: The Story of Our Obsession with Aliens.





