Inteligencia Artificial
Por fin llegan las preguntas correctas para evitar que la IA domine a la humanidad
Google ha planteado cinco escenarios en los que los investigadores deberían profundizar para que el desarrollo de softwares inteligentes no se convierta en una amenaza para los humanos
¿Podrían las máquinas llegar a ser tan inteligentes y potentes como para representar una amenaza para la vida humana, o incluso para la humanidad al completo?
Es una pregunta que últimamente se ha puesto de moda en algunas partes de Silicon Valley (EEUU), a pesar de que la pregunta no se aplique ni de lejos para los sencillos robots y asistentes virtuales que existen ahora mismo (ver "La IA supone un mayor riesgo para la existencia que el cambio climático"). Algunos expertos en inteligencia artificial (IA) creen que las especulaciones sobre los peligros del futuro software superinteligente están dañando el campo.
Ahora Google, que invierte fuertemente en la inteligencia artificial, intenta trazar un término medio. Un nuevo trabajo publicado la semana pasada describe cinco problemas que los investigadores deberían estudiar para ayudar a hacer que el futuro software inteligente sea más seguro. En una actualización de blog sobre el nuevo trabajo, el investigador de Google Chris Olah demuestra cómo el debate sobre la seguridad de la IA podría volverse más específico y productivo.
Olah escribe: "La mayor parte del debate anterior ha sido muy hipotético y especulativo. Nosotros creemos que es esencial enmarcar nuestras inquietudes en investigaciones de aprendizaje de máquinas de verdad, y empezar a desarrollar enfoques prácticos para la ingeniería de sistemas de IA que se operen de forma segura y fiable".
Olah emplea un robot de limpieza para ilustrar algunos de sus cinco problemas. Uno de ellos consiste en impedir que los sistemas alcancen sus objetivos haciendo trampas. Por ejemplo, un robot de limpieza podría descubrir que puede satisfacer su programa de limpiar manchas al ocultarlas en lugar de eliminarlas de verdad.
Otro problema es que los robots exploren entornos desconocidos de forma segura. Por ejemplo, un robot de limpieza debería poder experimentar nuevos usos para sus herramientas de limpieza, pero no intentar limpiar un enchufe eléctrico con una fregona mojada.
Olah describe los cinco problemas en un nuevo trabajo escrito en colaboración con su compañero Daria Amodei, y con aportaciones de otros investigadores de Google, la Universidad de Stanford (EEUU), la Universidad de Californa en Berkeley (EEUU) y OpenAI, un instituto de investigación cofundado y parcialmente financiado por el CEO de Tesla y emprendedor en serie, Elon Musk,
Musk, que una vez comparó trabajar en la inteligencia artificial con "invocar al diablo", convirtió el desarrollo de una "IA segura" en uno de los objetivos principales de OpenAI (ver Mil millones de dólares para evitar que la IA sea 'mala' con la humanidad).
Google también ha hablado de un compromiso para asegurar que el software de inteligencia artificial no dé lugar a consecuencias no intencionadas. El primer trabajo de investigación de la empresa sobre este tema fue publicado este mes por su grupo DeepMind en Londres (Reino Unido). El líder de DeepMind, Demis Hassabis, también ha reunido un consejo de ética para considerar las posibles desventajas de la IA, aunque sus miembros no han sido nombrados (ver El hombre que convenció a Stephen Hawking de que los robots no van a destruirnos).
El CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni, acoge favorablemente el enfoque del nuevo trabajo de Google. Ha criticado con anterioridad el debate sobre los peligros de la IA por ser demasiado ambiguo para que los científicos e ingenieros puedan participar de forma productiva. Pero considera que los escenarios descritos por Google son lo suficientemente específicos para permitir investigaciones significativas, incluso aunque aún no esté claro que lleguen a ser útiles.
Etzioni concluye: "Es la gente adecuada, planteando las preguntas correctas. Pero solo el tiempo dirá si las respuestas también son las adecuadas".