La nueva inteligencia artificial de OpenAI es capaz de escribir textos convincentes sin más instrucciones que el título, así como acordes y piezas de código informático. Sin embargo, aunque es el modelo más poderoso de su clase, sus creadores intentan rebajar las expectativas sobre su inteligencia
"Jugar con GPT-3 es como ver el futuro", tuiteó la semana pasada el desarrollador y artista de San Francisco (EE. UU.) Arram Sabeti. Con esa frase se puede resumir la reacción de la gente en redes sociales al último sistema de inteligencia artificial (IA) de lenguaje de OpenAI.
OpenAI describió por primera vez el modelo GPT-3 en un artículo de investigación publicado en mayo. Pero la semana pasada empezó a ofrecer el software a personas seleccionadas que habían pedido acceso a una versión beta privada. Por ahora, OpenAI quiere que los desarrolladores externos le ayuden a explorar todo lo que GPT-3 es capaz de hacer, pero planea convertir esta herramienta en un producto comercial a finales de este año mediante una suscripción de pago para acceder a la IA a través de la nube.
GPT-3 es el modelo de lenguaje más poderoso de la historia. Su versión anterior, GPT-2, lanzada el año pasado, ya era capaz de crear líneas de texto comprensibles en una variedad de estilos diferentes cuando recibía una frase inicial. Pero GPT-3 supone un gran salto adelante. El nuevo modelo tiene 175.000 millones de parámetros (los valores que una red neuronal intenta optimizar durante el entrenamiento), en comparación con los ya enormes 1.500 millones de GPT-2. Y cuando se trata de los modelos de lenguaje, el tamaño sí importa.
Sabeti vinculó su tuit a una publicación de blog donde presumía de relatos cortos, canciones, comunicados de prensa, instrucciones técnicas y demás texto generadas con la IA. GPT-3 también puede imitar a algunos escritores particulares. El artista que trabaja con el aprendizaje automático Mario Klingemann compartió un breve relato titulado La importancia de estar en Twitter, escrita al estilo de Jerome K. Jerome. El texto empieza así: "Es un hecho curioso que la última forma restante de la vida social en la que la gente de Londres todavía está interesada es Twitter. Me sorprendió este curioso hecho cuando fui de vacaciones al lado del mar, como suelo practicar periódicamente, y encontré a todos tuiteando como pájaros enjaulados". Klingemann asegura que lo único que le dio a la IA fue el título, el nombre del autor y la palabra inicial. Incluso hay un artículo bastante ilustrativo sobre GPT-3 escrito al completo por GPT-3.
Another attempt at a longer piece. An imaginary Jerome K. Jerome writes about Twitter. All I seeded was the title, the author's name and the first "It", the rest is done by #gpt3
Here is the full-length version as a PDF:https://t.co/d2gpmlZ1T5 pic.twitter.com/1N0lNoC1eZ
— Mario Klingemann (@quasimondo) July 18, 2020
Otros han descubierto que GPT-3 puede generar cualquier tipo de texto, incluidos acordes de guitarra y código informático. Por ejemplo, al ajustar GPT-3 para que produzca HTML en vez de lenguaje natural, el desarrollador web Sharif Shameem demostró que el sistema era capaz de crear diseños de páginas web dándole indicaciones como "un botón que se parece una sandía" o "grande texto en rojo que ponga 'BIENVENIDO A MI BOLETÍN' y un botón azul de 'Suscribirse'". Incluso el conocido programador John Carmack, pionero de los gráficos por ordenador en 3D en los primeros videojuegos como Doom y actual asesor del CTO en Oculus VR, estaba desconcertado: "El reciente descubrimiento, casi accidental, de que GPT-3 puede escribir un código me da un pequeño escalofrío".
Sin embargo, a pesar de sus nuevos trucos, GPT-3 sigue siendo propenso a crear un lenguaje sexista y racista. Los ajustes en el modelo ayudaron a limitar este tipo de resultados en GPT-2.
Tampoco sorprende que muchos hayan comenzado a hablar rápidamente sobre la inteligencia. Pero el rendimiento casi humano de GPT-3 y su sorprendente versatilidad son el resultado de una excelente ingeniería, no de una inteligencia genuina. De hecho, la IA todavía genera algunos comentarios ridículos que revelan una falta total de sentido común. Pero ni siquiera sus éxitos tienen mucha profundidad y más bien parecen trabajos de cortar y pegar que composiciones originales.
No está claro qué es lo que pasa exactamente dentro de GPT-3. Pero parece que se le da bastante bien sintetizar texto encontrado en otras partes de internet, convirtiéndolo en una especie de enorme y ecléctico álbum de recortes creado a base de millones de fragmentos de texto que luego se juntan a demanda de formas extrañas y maravillosas.
Así que no se debe minimizar el logro de OpenAI. Una herramienta como esta tiene muchos potenciales usos nuevos, tanto buenos (mejores chatbots para ayudar a las personas a codificar) como malos (mejores bots de desinformación y ayuda a los niños a hacer trampa en sus deberes).
Pero, cuando llega un nuevo hito de la IA, muchas veces queda enterrado entre el excesivo bombo mediático. Incluso el cofundador de OpenAI Sam Altman intentó suavizar las cosas: "Hay demasiado bombo sobre GPT-3. Es impresionante (¡gracias por las bonitas felicitaciones!) pero aún tiene serias debilidades y, a veces, comete errores muy tontos. La IA va a cambiar el mundo, pero GPT-3 es solo un primer vistazo. Todavía nos queda mucho por resolver".
Cuando se trata de detectar inteligencia, el nivel está bastante bajo. Si algo parece inteligente, puede hacernos creer fácilmente que realmente la tiene. El mayor truco de la IA fue convencer al mundo de que existía. GPT-3 es un gran avance, pero sigue siendo una herramienta hecha por humanos, con todos los defectos y limitaciones que eso implica.