
Las personas están forjando relaciones íntimas con chatbots. Aunque eso es seguro para algunos, puede ser peligroso para otros.
QUIÉNES: Anthropic, Character.AI, OpenAI, Replika
CUÁNDO: Ahora
Los chatbots son expertos en crear diálogos sofisticados e imitar comportamientos empáticos. Nunca se cansan de conversar. No es de extrañar, entonces, que tantas personas los utilicen ahora como compañía—formando amistades o incluso relaciones románticas.
Según un estudio de la organización sin ánimo de lucro Common Sense Media, el 72% de los adolescentes en EE UU han usado IA para buscar compañía. Aunque algunos modelos de lenguaje a gran escala están diseñados para actuar como compañeros, cada vez más personas buscan relaciones con modelos de propósito general como ChatGPT—algo que el CEO de OpenAI, Sam Altman ve con buenos ojos. Aunque los chatbots pueden proporcionar apoyo emocional y orientación muy necesarios para algunas personas, también pueden agravar problemas subyacentes en otras. Las conversaciones con chatbots se han relacionado con delirios inducidos por IA, creencias falsas y a veces peligrosas reforzadas, e incluso han llevado a personas a imaginar que han desbloqueado conocimientos ocultos.
La situación se vuelve aún más preocupante. Familias que han iniciado demandas contra OpenAI y Character.AI alegan que el comportamiento tan parecido al de un compañero o amigo de sus modelos contribuyó a los suicidios de dos adolescentes. Y han surgido nuevos casos desde entonces: el Social Media Victims Law Center presentó tres demandas contra Character.AI en septiembre de 2025, y en noviembre de 2025 se interpusieron siete denuncias contra OpenAI.
Estamos empezando a ver los primeros esfuerzos para regular los compañeros de IA y frenar el uso problemático. En septiembre, el gobernador de California (EE UU) firmó una nueva normativa que obligará a las mayores empresas de IA a hacer públicas las medidas que adoptan para mantener seguros a los usuarios. De manera similar, OpenAI introdujo controles parentales en ChatGPT y está trabajando en una nueva versión del chatbot específicamente para adolescentes, que promete incluir más salvaguardas. Así que, aunque la compañía con IA probablemente no desaparecerá pronto, su futuro parece cada vez más regulado.





