Skip to main content
Operai ha publicado su primera investigación sobre cómo el uso de chatgpt afecta el bienestar emocional de las personas

Estamos empezando a comprender mejor cómo los chatbots nos afectan, aunque todavía hay mucho que desconocemos.  

OpenAI afirma que más de 400 millones de personas usan ChatGPT cada semana. ¿Cómo nos afecta la interacción con el chatbot? ¿Nos hace sentir más o menos solos? Estas son algunas de las preguntas que OpenAI, en colaboración con el MIT Media Lab, se propuso investigar en dos nuevos estudios. 

Descubrieron que solo un pequeño grupo de usuarios se involucra emocionalmente con ChatGPT. Esto no es sorprendente, dado que ChatGPT no se comercializa como una aplicación de compañía, como Replika o Character.AI, dice Kate Devlin, profesora de IA y sociedad en el King’s College de Londres (Inglaterra, Reino Unido), quien no participó en el proyecto. “ChatGPT se ha configurado como una herramienta de productividad”, comenta. “Pero sabemos que la gente lo usa como una aplicación de compañía de todos modos”. De hecho, las personas que lo usan de esta manera tienden a interactuar con el chatbot durante períodos prolongados, algunos de ellos promediando alrededor de media hora al día. 

“Los autores son muy claros sobre las limitaciones de estos estudios, pero es emocionante ver que lo han hecho”, dice Devlin. “Tener acceso a este nivel de datos es increíble”. 

El estudio también reveló diferencias entre hombres y mujeres en su relación con ChatGPT. Tras cuatro semanas de uso, las mujeres eran ligeramente menos propensas a socializar con otras personas en comparación con los hombres. Además, quienes interactuaron con el chatbot en un modo de voz que no coincidía con su género reportaron mayores niveles de soledad y una dependencia emocional más fuerte hacia la IA. OpenAI planea enviar ambos estudios a revistas científicas para su revisión por pares. 

Aunque los chatbots basados en modelos de lenguaje aún son una tecnología emergente, su impacto emocional es difícil de medir. Gran parte de la investigación en este ámbito, incluido el trabajo de OpenAI y el MIT, se basa en datos autoinformados, que pueden no ser del todo correctos o precisos. Sin embargo, estos hallazgos coinciden con estudios previos sobre el impacto emocional de las conversaciones con IA. Por ejemplo, en 2023, investigadores del MIT Media Lab descubrieron que los chatbots tienden a reflejar el estado de ánimo del usuario, lo que sugiere un bucle de retroalimentación: si una persona se muestra feliz, la IA responde en el mismo tono; si transmite tristeza, la IA también lo hace. 

Para su estudio, OpenAI y el MIT Media Lab usaron un enfoque en dos fases. Primero, reunieron y analizaron datos de casi 40 millones de interacciones reales con ChatGPT. Luego, preguntaron a los 4,076 usuarios que habían tenido esas interacciones cómo les hacían sentir.  

En la segunda fase, reclutaron a casi 1.000 personas para participar en un ensayo de cuatro semanas. Durante ese tiempo, los participantes interactuaron con ChatGPT al menos cinco minutos al día y, al finalizar el experimento, respondieron un cuestionario sobre sus percepciones del chatbot, su sensación de soledad, su nivel de socialización, su dependencia emocional con la IA y si consideraban que su uso era problemático. Los resultados mostraron que quienes confiaban más en el chatbot y se sentían más “conectados” a él eran también los que reportaban mayores niveles de soledad y dependencia. 

Este estudio es un primer paso importante para comprender mejor cómo ChatGPT impacta en sus usuarios y ayudar a desarrollar interacciones más seguras y saludables, afirma Jason Phang, investigador de seguridad de OpenAI y coautor del trabajo. 

“Aunque estos hallazgos son preliminares, queremos abrir el debate sobre qué aspectos deberíamos empezar a medir y cómo podríamos evaluar el impacto a largo plazo en los usuarios”, explica Phang. 

A pesar de lo valioso de la investigación, sigue siendo difícil determinar cuándo una persona interactúa con la IA de manera emocional, advierte Devlin. Según la experta, es posible que algunos participantes hayan experimentado emociones que el estudio no logró registrar. 

“Puede que las personas no usaran ChatGPT con una intención emocional, pero no podemos separar nuestra humanidad de nuestras interacciones con la tecnología”, sostiene. “Los modelos que utilizamos para clasificar emociones nos ayudan a detectar ciertos patrones, pero interpretar lo que eso significa en la vida de alguien sigue siendo un reto”. 

Corrección: una versión anterior de este artículo indicó incorrectamente que los participantes del estudio elegían el género de la voz de ChatGPT y que OpenAI no tenía planes de publicar ninguno de los estudios. Los participantes del estudio fueron asignados a un género específico para el modo de voz, y OpenAI planea enviar ambos estudios a revistas revisadas por pares. El artículo ha sido actualizado.