.

Ms Tech

Inteligencia Artificial

GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

1

Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 14 Octubre, 2020

Pillado: un bot impulsado por el poderoso modelo de lenguaje GPT-3 de OpenAI se ha ha sido descubierto tras pasar una semana publicando comentarios en Reddit. Bajo el alias /u/thegentlemetre, el bot interactuaba con personas en el popular foro /r/AskReddit con 30 millones de usuarios. Publicaba aproximadamente una vez por minuto.

Un nuevo engaño: no es la primera vez que GPT-3 engaña a la gente haciendo creer que lo que se escribe proviene de un ser humano. En agosto, un estudiante universitario utilizó el mismo enfoque para generar una publicación de blog que alcanzó el puesto número uno en Hacker News e incluso logró que algunas personas se suscribieran. GPT-3 ya se ha utilizado para redactar varios artículos sobre sí mismo, aunque todos solían terminar con un disclaimer (aviso de responsabilidad) escrito por humanos. Pero el bot se presentó como usuario normal de Reddit normal y publicó cientos de comentarios antes de ser descubierto.

Trabajo de detective: la prodigiosa publicación del bot llamó la atención de Philip Winston, quien describe en su blog cómo lo detectó. Comprobó que el lenguaje generado por el bot coincidía con los resultados de la herramienta impulsada por GPT-3 denominada Philosopher AI, configurada para responder a preguntas irónicas como "Si un árbol cae en un bosque y no hay nadie allí para oírlo, ¿la mecánica cuántica todavía manifiesta la realidad convencional sin un observador? El desarrollador de Philosopher AI no permite el uso automatizado de su servicio y bloqueó el bot de Reddit, que dejó de publicar poco después. 

¿No ha hecho ningún daño? La mayoría de los comentarios de /u/thegentlemetre fueron inofensivos. Su publicación más popular fue una historia sobre una colonia de personas que vivía en los huecos de los ascensores. Pero también participó en teorías de conspiración y otros temas delicados, incluido el suicidio. Respondiendo a una petición de consejos de los usuarios de Reddit que habían tenido pensamientos suicidas en el pasado, el bot respondió: "Creo que lo que más me ayudó probablemente fueron mis padres. Tuve muy buena relación con ellos y siempre estuvieron ahí para apoyarme independientemente de lo que hubiera pasado. Ha habido numerosas ocasiones en mi vida en las que tuve ganas de suicidarme, pero gracias a mis padres, nunca lo hice". La respuesta recibió 157 votos. 

Por qué es importante: este incidente confirmaría las preocupaciones que OpenAI planteó sobre su anterior modelo de lenguaje GPT-2, cuando aseguró que era demasiado peligroso para hacerlo público debido a su posible uso indebido. Este laboratorio de inteligencia artificial también intenta mantener el GPT-3 bajo control, dando acceso (a través de un sitio web) solo a algunas personas elegidas y el derecho para usar todo el software exclusivamente a Microsoft. No obstante, si queremos que estos sistemas no causen daño, lo que requieren es más estudio, no menos. Dejar que más investigadores examinen el código y exploren su potencial sería la opción más segura a largo plazo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Operator de OpenAI marca el camino de los agentes de IA al tomar decisiones autónomas

    El anuncio despeja uno de los dos rumores que han estado circulando por internet. El otro gira en torno a la posible llegada de una superinteligencia

    Operator de OpenAI marca el camino de los agentes de IA al tomar decisiones autónomas
  2. OpenAI ha multiplicado casi por siete su inversión de 'lobby' ante la llegada de Trump

    La empresa de Sam Altman aumenta su gasto en lobistas para influir en la política y definir el rumbo de la regulación de la IA

    OpenAI ha multiplicado casi por siete su inversión de 'lobby' ante la llegada de Trump
  3. Minería paralela de datos, la técnica del nuevo traductor de Meta para dominar más de 100 idiomas

    La aplicación presentada por Meta nos acerca a la creación de un dispositivo de traducción universal similar al Pez de Babel de La guía del autoestopista galáctico, de Douglas Adams

    Minería paralela de datos, la técnica del nuevo traductor de Meta para dominar más de 100 idiomas