.

Ms Tech

Inteligencia Artificial

GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

1

Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 14 Octubre, 2020

Pillado: un bot impulsado por el poderoso modelo de lenguaje GPT-3 de OpenAI se ha ha sido descubierto tras pasar una semana publicando comentarios en Reddit. Bajo el alias /u/thegentlemetre, el bot interactuaba con personas en el popular foro /r/AskReddit con 30 millones de usuarios. Publicaba aproximadamente una vez por minuto.

Un nuevo engaño: no es la primera vez que GPT-3 engaña a la gente haciendo creer que lo que se escribe proviene de un ser humano. En agosto, un estudiante universitario utilizó el mismo enfoque para generar una publicación de blog que alcanzó el puesto número uno en Hacker News e incluso logró que algunas personas se suscribieran. GPT-3 ya se ha utilizado para redactar varios artículos sobre sí mismo, aunque todos solían terminar con un disclaimer (aviso de responsabilidad) escrito por humanos. Pero el bot se presentó como usuario normal de Reddit normal y publicó cientos de comentarios antes de ser descubierto.

Trabajo de detective: la prodigiosa publicación del bot llamó la atención de Philip Winston, quien describe en su blog cómo lo detectó. Comprobó que el lenguaje generado por el bot coincidía con los resultados de la herramienta impulsada por GPT-3 denominada Philosopher AI, configurada para responder a preguntas irónicas como "Si un árbol cae en un bosque y no hay nadie allí para oírlo, ¿la mecánica cuántica todavía manifiesta la realidad convencional sin un observador? El desarrollador de Philosopher AI no permite el uso automatizado de su servicio y bloqueó el bot de Reddit, que dejó de publicar poco después. 

¿No ha hecho ningún daño? La mayoría de los comentarios de /u/thegentlemetre fueron inofensivos. Su publicación más popular fue una historia sobre una colonia de personas que vivía en los huecos de los ascensores. Pero también participó en teorías de conspiración y otros temas delicados, incluido el suicidio. Respondiendo a una petición de consejos de los usuarios de Reddit que habían tenido pensamientos suicidas en el pasado, el bot respondió: "Creo que lo que más me ayudó probablemente fueron mis padres. Tuve muy buena relación con ellos y siempre estuvieron ahí para apoyarme independientemente de lo que hubiera pasado. Ha habido numerosas ocasiones en mi vida en las que tuve ganas de suicidarme, pero gracias a mis padres, nunca lo hice". La respuesta recibió 157 votos. 

Por qué es importante: este incidente confirmaría las preocupaciones que OpenAI planteó sobre su anterior modelo de lenguaje GPT-2, cuando aseguró que era demasiado peligroso para hacerlo público debido a su posible uso indebido. Este laboratorio de inteligencia artificial también intenta mantener el GPT-3 bajo control, dando acceso (a través de un sitio web) solo a algunas personas elegidas y el derecho para usar todo el software exclusivamente a Microsoft. No obstante, si queremos que estos sistemas no causen daño, lo que requieren es más estudio, no menos. Dejar que más investigadores examinen el código y exploren su potencial sería la opción más segura a largo plazo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla