.

Inteligencia Artificial

El riesgo existencial se convierte en el mayor meme de la IA

1

"Las historias de fantasmas son contagiosas"

  • por Will Douglas Heaven | traducido por
  • 23 Junio, 2023

¿Quién teme a los robots malos? Parece que mucha gente. El número de nombres de alto nivel que se han pronunciado públicamente o han firmado cartas abiertas advirtiendo de los peligros catastróficos de la inteligencia artificial (IA) es sorprendente.

Cientos de científicos, líderes empresariales y responsables políticos se han pronunciado al respecto, desde los pioneros del aprendizaje profundo Geoffrey Hinton y Yoshua Bengio hasta los consejeros delegados de las principales empresas de IA, como Sam Altman y Demis Hassabis hasta el congresista californiano Ted Lieu y la ex presidenta de Estonia Kersti Kaljulaid.

La afirmación más contundente, firmada por todas esas cifras y muchas más, es una declaración de 22 palabras publicada hace dos semanas por el Centro para la Seguridad de la IA (CAIS), una organización de investigación con sede en San Francisco, que proclama: "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto a otros riesgos a escala social como las pandemias y la guerra nuclear".

La redacción es deliberada. "Si hubiéramos querido hacer una prueba de Rorschach, habríamos dicho 'riesgo existencial', porque eso puede significar muchas cosas para mucha gente distinta", afirma Dan Hendrycks, director del CAIS. Pero querían ser claros: no se trataba de hundir la economía. "Por eso dijimos 'riesgo de extinción', aunque a muchos de nosotros también nos preocupan otros peligros", explica Hendrycks.

Ya hemos pasado por esto: La perdición de la IA sigue a la exageración de la IA. Pero esta vez es diferente. La ventana de Overton se ha desplazado. Lo que antes eran opiniones extremas ahora son temas de conversación dominantes, que no sólo acaparan titulares, sino también la atención de los líderes mundiales. Jenna Burrell, directora de investigación de Data and Society, una organización que estudia el impacto social de la tecnología, afirma: "El coro de voces que expresan su preocupación por la IA se ha hecho demasiado fuerte para ser ignorado".

¿Qué está ocurriendo? ¿Se ha vuelto (más) peligrosa la IA? ¿Y por qué son ahora los pioneros de esta tecnología los que dan la voz de alarma?  

Es cierto que estas opiniones dividen el campo. La semana pasada, Yann LeCun, científico jefe de Meta y galardonado junto con Hinton y Bengio con el Premio Turing 2018, calificó el doomerismo de "absurdamente ridículo". Aidan Gomez, CEO de la firma de IA Cohere, dijo que era "un uso absurdo de nuestro tiempo".

Otros también se burlan. "No hay más pruebas ahora que en 1950 de que la IA vaya a plantear estos riesgos existenciales", asegura la presidenta de Signal, Meredith Whittaker, cofundadora y ex directora del AI Now Institute, un laboratorio de investigación que estudia las implicaciones políticas de la inteligencia artificial. "Las historias de fantasmas son contagiosas: es realmente emocionante y estimulante tener miedo. También es una forma de pasar por alto todo lo que está ocurriendo en la actualidad", afirma Burrell. "Sugiere que aún no hemos visto daños reales o graves".

Un viejo miedo

La preocupación por las máquinas que se desbocan y mejoran a sí mismas existe desde Alan Turing. Futuristas como Vernor Vinge y Ray Kurzweil popularizaron estas ideas hablando de la llamada Singularidad, una fecha hipotética en la que la inteligencia artificial supera a la humana y las máquinas toman el control.

Pero en el centro de estas preocupaciones está la cuestión del control: ¿Cómo se mantienen los humanos en la cima si (o cuando) las máquinas se vuelven más inteligentes? En un artículo titulado "How Does Artificial Intelligence Pose an Existential Risk?", publicado en 2017, Karina Vold, filósofa de la inteligencia artificial de la Universidad de Toronto (firmante de la declaración del CAIS), expone el argumento básico que subyace a los temores.   

Hay tres premisas clave: la primera es que es posible que los humanos construyan una máquina superinteligente que pueda ser más lista que todas las demás inteligencias; la segunda es que es posible que no seamos capaces de controlar una superinteligencia que nos supere y la tercera es que es posible que una superinteligencia haga cosas que no queremos que haga.

Si juntamos todo eso, es posible construir una máquina que haga cosas que no queremos que haga -incluso aniquilarnos- y no podremos detenerla.  

Hay distintos tipos de este escenario. Cuando Hinton planteó en mayo su preocupación por la IA, puso el ejemplo de los robots que redirigen la red eléctrica para obtener más energía. Pero la superinteligencia (o AGI por sus siglas en inglés) no es necesariamente necesaria. Las máquinas tontas, a las que se da demasiada libertad de acción, también pueden ser desastrosas. Muchos escenarios implican un despliegue irreflexivo o malintencionado en lugar de robots interesados.

En un artículo publicado en Internet la semana pasada, Stuart Russell y Andrew Critch, investigadores de IA de la Universidad de California en Berkeley (ambos firmantes de la declaración del CAIS), ofrecen una taxonomía de los riesgos existenciales. Estos van desde un chatbot viral que da consejos a millones de personas para que abandonen la universidad hasta industrias autónomas que persiguen sus propios fines económicos perjudiciales, pasando por estados-nación que construyen superarmas potenciadas por IA.

En muchos casos imaginarios, un modelo teórico cumple el objetivo que le ha asignado el ser humano, pero lo hace de una forma que nos perjudica. Para Hendrycks, que estudió cómo los modelos de aprendizaje profundo pueden comportarse a veces de forma inesperada e indeseable cuando reciben datos que no aparecen en sus datos de entrenamiento, un sistema de IA podría ser desastroso porque está roto en lugar de ser todopoderoso. "Si le das un objetivo y encuentra soluciones ajenas a él, nos va a llevar por un camino extraño", afirma.

El problema de estos futuros posibles es que se basan en una serie de "y si...", lo que los hace parecer ciencia ficción. La propia Vold lo reconoce: "Como los acontecimientos que constituyen o precipitan un [riesgo existencial] no tienen precedentes, los argumentos en el sentido de que plantean tal amenaza deben ser de naturaleza teórica". Y escribe: "Su rareza también hace que cualquier especulación sobre cómo o cuándo podrían ocurrir tales acontecimientos sea subjetiva y no verificable empíricamente".

Entonces, ¿por qué hay más gente que nunca que se toma estas ideas al pie de la letra? "Cada persona habla del riesgo por razones distintas, y puede referirse a cosas diferentes", afirma François Chollet, investigador de IA en Google. Pero también es una narrativa a la que es difícil resistirse: "El riesgo existencial siempre ha sido una buena historia".

"Hay una especie de elemento mitológico, casi religioso, en todo esto que no se puede descartar", cuenta Whittaker. "Creo que tenemos que reconocer que lo que se está describiendo, dado que no tiene base en pruebas, está mucho más cerca de un artículo de fe, una especie de fervor religioso, que de un discurso científico" concluye.

El contagio de la fatalidad

Cuando los investigadores del aprendizaje profundo empezaron a acumular una serie de éxitos -pensemos en las puntuaciones récord de Hinton y sus colegas en el concurso de reconocimiento de imágenes ImageNet en 2012 y las primeras victorias de DeepMind contra campeones humanos con AlphaGo en 2015-, la expectación pronto se convirtió también en agoreros. Científicos famosos, como Stephen Hawking y su colega el cosmólogo Martin Rees, así como líderes tecnológicos célebres como Elon Musk, dieron la voz de alarma sobre el riesgo existencial. Pero estas figuras no eran expertos en IA.  

Hace ocho años, Andrew Ng, pionero del aprendizaje profundo y científico jefe de Baidu en aquel momento, se subió a un escenario en San José y se rió de la idea.

"Podría haber una carrera de robots asesinos en un futuro lejano", dijo Ng al público de la Conferencia sobre Tecnología para GPU de Nvidia en 2015. "Pero hoy no trabajo para que la IA no se vuelva malvada por la misma razón por la que no me preocupa el problema de la superpoblación en el planeta Marte". (Las palabras de Ng fueron recogidas en su momento por el sitio web de noticias tecnológicas The Register).

Ng, cofundador del laboratorio de IA de Google en 2011 y actual CEO de Landing AI, ha repetido la frase en entrevistas desde entonces. Pero ahora es menos optimista. "Mantengo la mente abierta y estoy hablando con algunas personas para saber más", me dice. "El rápido ritmo de desarrollo ha llevado a los científicos a replantearse los riesgos".

Como a muchos, a Ng le preocupa el rápido progreso de la IA generativa y su potencial de uso indebido. Señala que una imagen generada por IA de una explosión en el Pentágono, ampliamente difundida, asustó tanto a la gente el mes pasado que la bolsa cayó

"La IA es tan poderosa que, por desgracia, parece probable que también provoque grandes problemas", afirma Ng. Pero no llega a hablar de robots asesinos: "Ahora mismo, todavía me cuesta ver cómo la IA puede llevarnos a la extinción".

Otra novedad es el conocimiento generalizado de lo que puede hacer la IA. A finales del año pasado, ChatGPT dio a conocer esta tecnología al público. "De repente, la IA se ha convertido en un tema popular", afirma Chollet. "La gente se toma en serio la IA porque ve un salto repentino en las capacidades como un presagio de más saltos futuros".

La experiencia de conversar con un chatbot también puede ser desconcertante. La conversación es algo que normalmente se entiende como algo que la gente hace con otra gente. "Añadió una especie de verosimilitud a la idea de que la IA era similar a un ser humano o un interlocutor sensible", dice Whittaker. "Creo que dio cierta compra a la idea de que, si la IA puede simular la comunicación humana, también podría hacer XYZ".

"En mi opinión, la conversación sobre el riesgo existencial encaja en esta apertura: extrapolar sin pruebas", afirma.

Mirar al futuro

También hay motivos para ser cínicos. Ahora que los reguladores se están poniendo al día con la industria tecnológica, la cuestión que está sobre la mesa es qué tipo de actividades deben limitarse y cuáles no. Destacar los riesgos a largo plazo en lugar de los daños a corto plazo (como la contratación discriminatoria o la desinformación) vuelve a centrar la atención de los reguladores en hipotéticos problemas a largo plazo.

"Sospecho que la amenaza de auténticas restricciones normativas ha empujado a la gente a adoptar una postura", afirma Burrell. Hablar de riesgos existenciales puede validar las preocupaciones de los reguladores sin socavar las oportunidades de negocio. "Una IA superinteligente que se vuelva contra la humanidad suena aterrador, pero también está claro que no es algo que haya ocurrido todavía", afirma.

Inflar los temores sobre el riesgo existencial también es bueno para los negocios de otras maneras. Chollet señala que las grandes empresas de IA necesitan que pensemos que la inteligencia artificial está al caer y que son ellas las que la están construyendo. "Si quieres que la gente piense que en lo que estás trabajando es poderoso, es una buena idea hacer que lo teman", afirma.

Whittaker tiene una opinión similar. "Es algo significativo erigirse en creador de una entidad que podría ser más poderosa que los seres humanos", afirma.

Nada de esto importaría mucho si se tratara simplemente de marketing o de bombo y platillo. Pero decidir cuáles son los riesgos y cuáles no, tiene consecuencias. En un mundo en el que los presupuestos y la capacidad de atención son limitados, los daños menos extremos que una guerra nuclear pueden pasarse por alto porque hemos decidido que no son prioritarios.

"Es una cuestión importante, sobre todo teniendo en cuenta que cada vez se presta más atención a la seguridad y la protección como marco restringido para la intervención política", afirma Sarah Myers West, directora gerente del AI Now Institute.

Cuando el primer ministro Rishi Sunak se reunió en mayo con directivos de empresas de IA, entre ellos Sam Altman y Demis Hassabis, el gobierno británico emitió un comunicado en el que afirmaba: "El primer ministro y los directores ejecutivos hablaron de los riesgos de la tecnología, que van desde la desinformación y la seguridad nacional hasta las amenazas existenciales".

La semana anterior, Altman declaró ante el Senado de EE UU que su peor temor era que la industria de la IA causara daños importantes al mundo. El testimonio de Altman contribuyó a suscitar llamamientos en favor de un nuevo tipo de agencia para hacer frente a esos daños sin precedentes.

Con la ventana de Overton desplazada, ¿está hecho el daño? "Si hablamos de un futuro lejano, si hablamos de riesgos mitológicos, entonces estamos replanteando completamente el problema para que sea un problema que existe en un mundo de fantasía y sus soluciones también pueden existir en un mundo de fantasía", afirma Whittaker.

Pero Whittaker también señala que los debates políticos en torno a la IA llevan años produciéndose, más que este reciente zumbido de miedo. "No creo en la inevitabilidad", afirma. "Veremos un retroceso de esta exageración. Se calmará".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla