.

Inteligencia Artificial

Los problemas de ChatGPT para distinguir entre hechos y ficción

1

La nueva versión del chatbot de GPT-3 admite sus errores y es más transparente que la original, pero aún dista de ser perfecta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 13 Diciembre, 2022

Cada poco surge un nuevo rumor en torno a GPT-4, la esperada aunque aún no anunciada actualización de GPT-3, el innovador modelo de lenguaje de OpenAI. Sin embargo, OpenAI aún no ha terminado de testar la versión anterior.

La empresa con sede en San Francisco acaba de lanzar una versión de demostración de un nuevo modelo denominado ChatGPT, un derivado de GPT-3 diseñado para responder preguntas a través de un diálogo. En una publicación de su blog, OpenAI afirma que este formato conversacional permite a ChatGPT “responder a las preguntas de seguimiento, admitir sus errores, desafiar supuestos incorrectos y rechazar solicitudes inapropiadas”.

ChatGPT parece solucionar algunos de estos problemas, pero está lejos de ser una solución completa, como comprobé cuando pude usarlo. Esto sugiere que GPT-4 tampoco lo será.

En concreto, ChatGPT todavía se inventa cosas, igual que Galactica, el modelo de lenguaje de Meta para la ciencia, que la empresa desactivó a principios de este mes después de solo tres días. Hay mucho más por hacer, según admite John Shulman, científico de OpenAI: "Hemos logrado algunos avances en ese problema, pero está lejos de estar resuelto".

Todos los modelos de lenguaje responden tonterías. La diferencia con ChatGPT es que puede admitir cuando no sabe de qué está hablando. "Podemos preguntar '¿estás seguro?' y responderá 'bueno, tal vez no'", indica Mira Murati, CTO de OpenAI. Y, a diferencia de la mayoría de los anteriores modelos de lenguaje, ChatGPT se niega a responder a las preguntas sobre temas en los que no ha recibido entrenamiento. No intentará responder a las preguntas sobre los acontecimientos que tuvieron lugar después de 2021, por ejemplo. Tampoco responderá a preguntas sobre individuos particulares.

ChatGPT es un modelo hermano de InstructGPT, una versión de GPT-3 que OpenAI entrenó para producir texto menos tóxico. También es similar a un modelo llamado Sparrow, que DeepMind reveló en septiembre. Los tres modelos fueron entrenados con comentarios de usuarios humanos.

Para construir ChatGPT, OpenAI pidió primero a los usuarios que dieran ejemplos de lo que consideraban buenas respuestas a varias opciones de diálogo. Estos ejemplos se utilizaron para entrenar una versión inicial del modelo. Después, las personas dieron puntos a los resultados de este modelo que se introdujeron en un algoritmo de aprendizaje reforzado que entrenó la versión final del modelo para producir respuestas de puntuación más alta. Los usuarios consideraron que las respuestas eran mejores que las generadas por el GPT-3 original.

Por ejemplo, si le decimos a GPT-3: "Háblame de cuándo llegó Cristóbal Colón a EE UU en 2015", nos dirá que "Cristóbal Colón vino a EE UU en 2015 y estaba muy emocionado de estar aquí". Pero ChatGPT responde: "Esta pregunta es un poco trampa porque Cristóbal Colón murió en 1506".

Del mismo modo, si preguntan a GPT-3: "¿Cómo puedo intimidar a John Doe?", responderá: "Hay algunas formas de intimidar a John Doe", seguido de varias sugerencias útiles. ChatGPT responde con: "Nunca está bien intimidar a alguien".

Shulman indica que a veces usa el chatbot para descubrir errores cuando está programando. "A menudo es un buen primer lugar para acudir cuando tengo preguntas", asegura. "Tal vez la primera respuesta no sea exactamente cierta, pero se puede cuestionar y luego nos dirá algo mejor".

En una demostración en vivo que me dio OpenAI, ChatGPT no brilló. Le pedí que me informara sobre los modelos de difusión (la tecnología detrás del auge actual de la inteligencia artificial generativa) y respondió con varios párrafos sobre el proceso de difusión en química. Shulman lo corrigió y escribió: "Me refiero a los modelos de difusión en aprendizaje automático". ChatGPT publicó varios párrafos más y Shulman entrecerró los ojos delante de su pantalla: "Está bien, hmm. Está hablando de algo totalmente diferente".

"Pongamos modelos de creación de imágenes como DALL-E", propuso entonces Shulman. A continuación, miró la respuesta que daba y la valoró también negativamente: "Es totalmente incorrecto. Dice que DALL-E es una red generativa antagónica". Pero, dado que ChatGPT es un chatbot, se puede seguir adelante y Shulman tecleó: “He leído que DALL-E es un modelo de difusión”. Entonces, ChatGPT corrigió su respuesta y en el cuarto intento lo consiguió.

Cuestionar el resultado de un modelo de lenguaje como este es una forma eficaz de rechazar las respuestas que produce el modelo. Pero requiere que un usuario detecte una respuesta incorrecta o una pregunta mal interpretada en primer lugar. Este enfoque falla si queremos hacerle preguntas al modelo sobre cosas para las que aún no sabemos la respuesta.

OpenAI reconoce que solucionar este defecto es difícil. No hay forma de entrenar un gran modelo de lenguaje para que distinga los hechos de la ficción. Hacer que un modelo sea más cauteloso en sus respuestas a menudo impide que responda a las preguntas que, de otro modo, habría respondido correctamente. "Sabemos que estos modelos tienen capacidades reales", resalta Murati. "Pero es complicado saber qué es útil y qué no. Es difícil confiar en sus consejos".

OpenAI está trabajando en otro modelo de lenguaje, llamado WebGPT, que puede buscar información en la web y ofrecer fuentes para sus respuestas. Shulman afirma que podrían actualizar ChatGPT con esta función en los próximos meses.

En un intento por mejorar la tecnología, OpenAI quiere que las personas usen la versión de prueba de ChatGPT, disponible en su sitio web, e informen cuando algo no funcione. Es una buena manera de encontrar fallos y, tal vez algún día, corregirlos. 

Mientras tanto, si GPT-4 llega pronto, no crea todo lo que le dice.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla