La ausencia de un comité ético público y la generación del sistema en una fuente cerrada podrían sugerir que los planes de los creadores incluyan riesgos para la humanidad. ¿Qué empresas actúan así?
La posibilidad de que una inteligencia artificial (IA) malévola se convierta en una amenaza para la humanidad se ha convertido en un acalorado debate. Varias figuras destacadas, desde el físico Stephen Hawking hasta el emprendedor tecnológico Elon Musk, han advertido de los peligros.
Por eso el campo de la seguridad de la IA es una importante disciplina emergente. Los informáticos han empezado a analizar las consecuencias no deseadas de los sistemas de IA mal diseñados, de sistemas de IA creados con marcos éticos erróneos o los que no compartan los valores humanos.
Pero existe una importante cuestión que se está obviando en este campo, según afirman los investigadores de la Universidad de Luisville en Kentucky (EEUU) Federico Pistono y Roman Yampolskiy. Los investigadores afirman: "Por lo que nosotros sabemos, no se ha publicado nada acerca de cómo diseñar una máquina malévola".
Para logarlo, el equipo de investigadores debería minimizar tanto la importancia de su trabajo como los peligros que plantea, e incluso publicar información confusa. "La estrategia consistiría en diseminar informaciones contradictorias que generasen dudas en la imaginación del público acerca de los peligros y las oportunidades de las investigaciones básicas de inteligencia artificial", explican.
Otra señal importante sería la existencia de código de fuente dentro del sistema de inteligencia artificial. "Es bien sabido entre los expertos de criptografía y seguridad informática que el software y los algoritmos de fuente cerrada son menos seguros que sus contrapartidas de fuente abierta y gratuitas", escriben Pistono y Yampolskiy. "La propia existencia de software y hardware de pago supone un riesgo mayor para la humanidad", añaden.
En lugar de eso, aseguran que la inteligencia artificial debería desarrollarse con software de fuente abierta, aunque no está claro si esto resultaría más seguro. El proceso de fuente abierta permite que más gente busque y arregle los defectos. Pero también proporciona acceso a criminales, terroristas y parecidos, que podrían emplear el software para fines nefastos.
Actualmente, la inteligencia artificial se está desarrollando de ambas maneras.
Los sistemas de fuente cerrada han gozado de bastantes éxitos. El sistema de IA de Google triunfó recientemente sobre la humanidad en el antiguo juego de Go, por ejemplo. Facebook también tiene un grupo de investigaciones de IA de perfil alto, aunque haya disfrutado de menos éxitos públicos.
Ninguna empresa ha sido totalmente transparente sobre cómo trabaja en sus IA. El subsidiario de Google DeepMind, por ejemplo, afirma disponer de un consejo ético, pero ha rehusado sistemáticamente a revelar quién lo compone. Facebook dice que las preocupaciones sobre la IA han sido exageradas.
El desarrollo de la inteligencia artificial de fuente abierta está menos avanzado, pero ha empezado a ganar impulso, en parte por los temores sobre rivales comerciales.
El más destacado de estos esfuerzos es OpenAI, una organización sin ánimo de lucro de inteligencia artificial fundada en 2015 con el objetivo de que "la inteligencia artificial tenga las mayores probabilidades de beneficiar a toda la humanidad en global, sin las restricciones que implica la necesidad de generar un retorno financiero".
Está respaldada por los compromisos de financiación de hasta 1.000 millones de dólares (unos 82.200 millones de euros) de parte de, entre otros, el emprendedor tecnológico Elon Musk, que ha advertido repetidamente de los peligros de la IA. (Musk también financió en parte el trabajo de uno de los autores de este estudio, Roman Yompilskiy).
Si OpenIA aumentará o reducirá las probabilidades de emergir un sistema de IA malévolo no está claro. Pero el objetivo al menos consiste en asegurar que sea lo que sea lo que pase, suceda a plena vista del público general. Aunque de momento, la ciberseguridad aplicada a la inteligencia artificial ha sido mucho menos desarrolladaque la del software normal.
Hace ya tiempo que los expertos en seguridad informática reconocen que el software malicioso sí representa una importante amenaza para la sociedad moderna. A muchas aplicaciones críticas para la seguridad, como las plantas de energía nuclear, el control del tráfico aéreo, los sistemas de soporte vital y así sucesivamente, un solo fallo en el diseño basta para crear el desastre. La situación se ve agravada por los diseñadores de software intencionadamente malévolo, como los virus y troyanos y parecidos, que cazan y se aprovechan de estos fallos.
Para combatir esto, los expertos en seguridad han desarrollado un potente ecosistema que identifica y arregla fallos antes de que puedan ser explotados. Estudian el software malicioso y buscan maneras de neutralizarlo.
También disponen de un sistema de comunicaciones para diseminar estas informaciones dentro de su comunidad, pero no más allá. Esto permite que cualquier fallo encontrado sea arreglado rápidamente, antes de que se extienda el conocimiento de él.
Pero el mundo de la IA aún no dispone de un sistema así de eficaz.
Podría no importar mientras que los sistemas de IA sigan siendo sean relativamente benignos. La mayoría de la IA actual se centra en temas como el procesamiento del lenguaje natural, el reconocimiento de objetos y tareas como la conducción.
Pero dado el ritmo del desarrollo en años recientes, es probable que esto cambie en seguida. Una pregunta importante sería cómo podrían los humanos combatir una IA malévola que podría tener graves consecuencias para la humanidad. Es una pregunta digna de estudiar en detalle ahora.
Ref: arxiv.org/abs/1605.02817: Unethical Research: How to Create a Malevolent Artificial Intelligence.