A un humano le puede resultar imposible supervisar el proceso de toma de decisiones de una inteligencia artificial. Un grupo de expertos propone que cada sistema debata con otro mediante el lenguaje natural para ayudar a que una persona juzgue las intenciones de sus acciones
Puede que algún día, el hecho de que un sistema de inteligencia artificial (IA) se pelee consigo mismo sea algo completamente normal. Este es el futuro que plantean los investigadores de OpenAI, una organización sin ánimo de lucro fundada por varias eminencias de Silicon Valley (EE. UU.), como el socio de Y Combinator Sam Altman, el presidente de LinkedIn, Reid Hoffman, el miembro de la junta de Facebook y fundador de Palantir, Peter Thiel, y el jefe de Tesla y SpaceX, Elon Musk (y que se creó con el objetivo concreto de evitar la que IA se rebele contra la humanidad).
OpenAI ha demostrado que los sistemas de IA que se entrenan a sí mismos pueden desarrollar hábitos inesperados e indeseados. Por ejemplo, en un juego de ordenador, un software puede descubrir cómo aprovechar los fallos del juego para obtener una puntuación más alta. En algunos casos, es posible que alguien supervise el proceso de entrenamiento, pero si el programa de IA está haciendo algo muy complejo para los humanos, la supervisión no podría detectarlo. Así que los investigadores sugieren que haya dos sistemas que debatan sobre cómo conseguir un objetivo en particular.
En una publicación de blog, los investigadores de OpenIA afirman: "Creemos que este enfoque, o uno similar, podría ayudarnos a entrenar sistemas de inteligencia artificial para que realicen tareas cognitivamente más avanzadas de las que los humanos son capaces de hacer, pero sin salirse de los intereses humanos". Por ejemplo, considere una IA diseñada para defenderse contra hackers humanos o de inteligencia artificial. Para evitar que el sistema haga algo dañino o poco ético, habría que obligarle a que explique por qué ha llevado a cabo una acción en particular. Pero su razonamiento ser demasiado complejo para la comprensión humana, así que los investigadores proponen que sea otra IA la que debata la lógica de la acción con el primer sistema. Para llevar a cabo ese debate, ambos sistemas emplearían el lenguaje natural para que una persona pudiera seguir la conversación. Este artículo de investigación ofrece más detalles sobre este nuevo enfoque.
Para que dos sistemas de IA puedan discutir entre ellos hace falta una tecnología más sofisticada de la que tenemos actualmente. Hasta ahora, los investigadores de OpenAI solo han probado la idea con un par de ejemplos muy simples. Uno involucra a dos inteligencias artificiales que intentan convencer a un observador de la identidad de un personaje oculto del que, poco a poco, van revelando píxeles individuales.
Los investigadores han creado una página web donde dos personas pueden emplear los roles de los dos sistemas de inteligencia de debate mientras que un tercero hace de juez. Los dos participantes compiten para convencer al juez sobre la naturaleza de una imagen y resaltar partes de ella. De esta forma, al juez le resulta fácil identificar cuál de los dos es el más honesto.
El investigador de la Universidad de Duke (EE. UU.) Vincent Conitzer, que estudia problemas éticos relacionados con la IA, dice que aunque el trabajo está en una etapa inicial, parece prometedor. El experto detalla: "Crear sistemas de IA capaces de explicar sus decisiones es una tarea desafiante. Si esto tiene éxito, podría aportar mucho al uso responsable de la IA", señala Conitzer.
A pesar de algunas declaraciones extravagantes de Elon Musk (un financiador de OpenAI y hasta hace poco miembro de su junta directiva), aún estamos muy lejos de tener una inteligencia artificial capaz de engañarnos como plantean algunas películas de ciencia ficción como Ex Machina y Her.
De todas formas, algunos investigadores todavía están buscando formas de garantizar que la tecnología no desarrolle comportamientos involuntarios. Estas herramientas se volverán cada vez más imprescindibles a medida que los programas de IA se vuelven más complejos y difíciles de comprender para la mente humana (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).
El profesor de ciencias de la computación de la Universidad Carnegie Mellon (EE. UU.) Ariel Procaccia, que estudia la toma de decisiones con sistemas autónomos, afirma: "Creo que la idea de alinear valores a través del debate es muy interesante y potencialmente útil". Pero también señala que el trabajo está en una fase muy preliminar y que propio el concepto podría ser contradictorio. Procaccia advierte: "Para debatir cuestiones cargadas de valores de una manera que resulte comprensible para un juez humano, los agentes de inteligencia artificial deben, en primer lugar, tener una sólida comprensión de los valores humanos. Así que, sin duda, el enfoque es como empezar la casa por el tejado".
El investigador del MIT Media Lab (EE. UU.) Iyad Rawan añade que los investigadores deben asegurarse que de las dos IA no acaben enredadas en una conversación de besugos. Rawan afirma: "Creo que [los investigadores] no tardarán en toparse con algunos obstáculos difíciles. Lo primero que tienen que averiguar es cómo automatizar el debate con lenguaje natural, esto sigue siendo un problema sin resolver".