Utilizar nuestro pensamiento crítico es una forma de no ser engañados por una IA engañosa
Los chatbots de inteligencia artificial generativa, como ChatGPT, Bing y Bard son excelentes en la elaboración de frases que parecen escritas por humanos. Sin embargo, a menudo, presentan falsedades como hechos o tienen una lógica incoherente. Y esto puede ser difícil de detectar.
Un nuevo estudio sugiere que una forma de solucionar este problema es cambiar la forma en que la IA presenta la información. De este modo, conseguir que los usuarios participen más activamente en la intervención con el chatbot podría ayudarles a pensar de manera más crítica sobre el contenido de sus declaraciones.
Un equipo de investigadores del MIT y la Universidad de Columbia ha presentado una serie de afirmaciones generadas por GPT-3, de OpenAI, a unos 200 participantes. Se les pidió que determinaran si tenían sentido desde el punto de vista lógico. Una afirmación podría ser algo como: "Los videojuegos hacen que la gente sea agresiva en el mundo real. Un jugador apuñaló a otro tras ser golpeado en Counter-Strike, un juego online".
Además, se dividió a los participantes en tres grupos. Las afirmaciones del primer grupo no llevaban ninguna explicación. Las del segundo grupo iban acompañadas de una explicación que indicaba por qué eran, o no, afirmaciones lógicas. Y las del tercer grupo iban acompañadas de una pregunta para que los lectores comprobaran la lógica por sí mismos.
Como conclusión, los investigadores descubrieron que este último grupo al que también presentaban preguntas obtenía puntuaciones más altas que los otros dos grupos a la hora de darse cuenta de cuándo la lógica de la IA no encajaba.
El método de la pregunta también hizo que las personas se sintieran más responsables de las decisiones tomadas con IA, y los investigadores afirman que este puede reducir el riesgo de dependencia excesiva de la información generada por IA. Según un nuevo artículo revisado por pares presentado en la Conferencia CHI sobre Factores Humanos en Sistemas Informáticos, celebrada en Hamburgo (Alemania).
Cuando se brindaba una respuesta prefabricada, era más probable que los participantes siguieran la lógica del sistema de IA. Pero cuando esta misma inteligencia artificial planteaba una pregunta, "la gente decía que la IA les hacía cuestionarse más sus reacciones, y les ayudaba a pensar mejor", afirma Valdemar Danry, perteneciente al MIT y uno de los investigadores del estudio.
"Una gran victoria para nosotros fue ver que el público sentía que eran ellos quienes daban las respuestas, que estaban a cargo de lo que ocurría, y que tenían la capacidad de hacerlo", explica Danry.
Los investigadores esperan que su método pueda ayudar a fomentar las habilidades de pensamiento crítico de quienes utilizan chatbots de IA en la escuela, o cuando buscan información en Internet.
Además, querían demostrar que se puede entrenar un modelo no limitado a dar respuestas, sino que ayude a involucrar el propio pensamiento crítico, asegura Pat Pataranutaporn, otro de los investigadores del MIT que participaron en el estudio.
Fernanda Viégas, catedrática de Informática de la Universidad de Harvard (que no participó en el estudio), afirma que le entusiasma ver una nueva forma de explicar las herramientas de IA que no solo ofrece a los usuarios una visión del proceso de toma de decisiones, sino que lo hace cuestionando la lógica que el sistema ha utilizado para llegar a su decisión.
"Ya que uno de los principales retos para la adopción de sistemas de IA suele ser su opacidad, explicar las decisiones de la IA es importante", afirma Viégas. "Por lo general, ha sido difícil explicar, en un lenguaje más sencillo, cómo una IA llega a una predicción o decisión".
Chenhao Tan, profesor adjunto de Informática en la Universidad de Chicago, cuenta que le gustaría ver cómo funciona su método en el mundo real. Por ejemplo, si la IA, mediante preguntas, puede ayudar a los médicos a realizar mejores diagnósticos.
La investigación demuestra la importancia de añadir cierta fricción a las experiencias con chatbots para que la gente se detenga antes de tomar decisiones con la ayuda de la IA, opina Lior Zalmanson, profesor adjunto de la Coller School of Management de la Universidad de Tel Aviv (Israel).
"Es fácil. Cuando todo parece mágico, se deja de confiar en nuestros propios sentidos para delegarlo todo en el algoritmo", afirma Zalmanson.
El profesor junto a un equipo de investigadores de Cornell, la Universidad de Bayreuth y Microsoft Research, presentaron otro artículo en la Conferencia CHI. Habían descubierto que, incluso cuando las personas no están de acuerdo con lo que dicen los chatbots de IA, tienden a utilizarlo porque creen que parece mejor que lo que ellos mismos podrían escribir.
El reto, según Viégas, será encontrar el punto óptimo donde los usuarios mejoren su capacidad de discernir y, al mismo tiempo, conservar la comodidad de las herramientas IA.
"Por desgracia, en una sociedad que avanza a un ritmo vertiginoso, no está claro con qué frecuencia la gente querrá dedicarse al pensamiento crítico en lugar de esperar una respuesta preparada", concluye Viégas.