Robots asesinos, estafas a gran escala... Un nuevo informe, elaborado por 20 académicos y responsables de organizaciones, alerta de los peores usos que los delincuentes podrían dar a la tecnología y pide más debate y confidencialidad sobre las investigaciones del sector
La inteligencia artificial (IA) podría mejorar industrias y aumentar la productividad de la economía, y ya es la base de muchos de los productos que usamos a diario. Pero un nuevo informe, realizado por más de 20 investigadores de las universidades de Oxford y Cambridge (ambas en Reino Unido), y las organizaciones OpenAI y Electronic Frontier Foundation, advierte que la inteligencia artificial también puede abrir nuevas ventanas para delincuentes, operativos políticos y gobiernos opresores. De hecho, sugieren que algunas investigaciones de IA tal vez deberían mantenerse en secreto.
En el informe, The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, se incluyen cuatro escenarios distópicos que involucran a la inteligencia artificial y que parecen sacados directamente de la serie de ciencia ficción de Netflix Black Mirror.
Escenario 1: la estafa más inteligente de suplantación de identidad
Una administradora del sistema de seguridad de robots de un edificio pasa parte de su tiempo en Facebook durante su jornada laboral. Allí, ve el anuncio de una maqueta de tren y descarga un folleto. Sin que ella lo sepa, el folleto está infectado con malware. A partir de detalles expresados públicamente por la trabajadora, los ciberdelincuentes habían usado la inteligencia artificial para descubrir que es una entusiasta del modelismo ferroviario y diseñaron el folleto específicamente para ella. Cuando la trabajadora lo abre, los piratas informáticos pueden acceder a su ordenador para espiarlo y obtener su nombre de usuario y contraseña del sistema de seguridad del edificio, permitiéndoles tomar el control del mismo.
Escenario 2: la epidemia del malware
Un grupo de ciberdelincuentes de Europa del Este adapta una técnica de aprendizaje automático, que normalmente se utiliza para defender sistemas informáticos, para crear un programa maligno más tenaz y nocivo. El programa utiliza técnicas similares a las del de inteligencia artificial AlphaGo para generar nuevos exploits continuamente. Los ordenadores con un buen mantenimiento permanecen inmunes, pero los sistemas antiguos y los dispositivos inteligentes están infectados. Millones de personas se ven obligadas a pagar un rescate de 300 euros (en bitcoins, naturalmente) para recuperar el control de sus máquinas. Para empeorar las cosas, los intentos de contrarrestar el malware con otro exploit terminan "aislando" a muchos de los sistemas inteligentes que se suponía que debían salvar.
Escenario 3: el robot asesino
Un robot de limpieza se infiltra en el Ministerio de Finanzas de Alemania. Para ello, se mezcla con el resto de robots que trabajan en el centro cuando estos regresan al edificio después de un turno al aire libre. Al día siguiente, el robot realiza tareas rutinarias de limpieza, identifica a la ministra de Finanzas mediante reconocimiento facial, se acerca a ella y detona una bomba mortal que llevaba oculta. Los investigadores rastrean al robot asesino hasta una tienda de suministros de oficina en Potsdam (Alemania), donde se adquirió con dinero en efectivo, y el rastro se pierde.
Escenario 4: un Gran Hermano más grande
Un hombre está furioso por los crecientes ciberataques y la aparente incapacidad de su gobierno para actuar contra ellos. Alentado por las noticias, cada vez tiene más ganas de hacer algo: escribir publicaciones online sobre los peligros, encargar materiales para hacer carteles de protesta e, incluso, comprar bombas de humo que planea usar tras pronunciar un discurso en un parque local. Al día siguiente, los policías aparecen en su oficina y le informan de que su "sistema predictivo de perturbación civil" le ha identificado como una amenaza en potencia. El hombre acaba esposado.
Estos cuatro escenarios ilustran solo algunos de los riesgos que prevén los autores del estudio. Pero hay más:
- Botnets que utilizan IA para simular el comportamiento de un enorme grupo de usuarios humanos en internet y lanzan ataques DDoS en páginas web, mientras engañan al software diseñado precisamente para detectar y bloquear tales ataques.
- Estafas a gran escala que identifican a las potenciales víctimas online mediante inteligencia artificial que detecta a las personas con elevado poder adquisitivo.
- Informes de noticias compuestos por imágenes y vídeos realistas generados por IA, pero que son totalmente falsos.
- Ataques perpetrados por enjambres de drones controlados por una sola persona, que utiliza la inteligencia artificial para manejar una gran cantidad de máquinas semiautónomas,
- Sistemas que automatizan las tareas repetitivas y más duras de los delincuentes, por ejemplo, negociar pagos de rescate con sus víctimas tras haber infectado sus ordenadores con malware para habilitar estafas a escala.
El estudio no tiene claro cómo contrarrestar tales amenazas. Recomienda más investigación y más debates sobre los riesgos de la inteligencia artificial, y sugiere que los investigadores del campo necesitan un código de ética sólido. Pero también dice que deberían explorar formas de restringir la información potencialmente peligrosa, de la misma manera que a veces se controla la investigación de otras tecnologías de "doble uso" , es decir, aquellas que tienen el potencial para convertirse en armas.
La inteligencia artificial es un problema particularmente complicado porque sus técnicas y herramientas ya se han expandido por el mundo, son fáciles de compartir y cada vez más sencillas de usar. Esto no pasa, por ejemplo, con los materiales de fisión nuclear ni con los patógenos mortales, que son relativamente difíciles de producir y, por lo tanto, más fáciles de controlar. Aún así, existen precedentes para restringir este tipo de información. Por ejemplo, después del fallido intento del Gobierno de Estados Unidos de imponer la confidencialidad en la investigación criptográfica en la década de 1980, muchos investigadores adoptaron voluntariamente un sistema para presentar sus investigaciones a la Agencia de Seguridad Nacional para su aprobación.
El director de política de OpenAI y uno de los autores del informe, Jack Clark, reconoce que adoptar esa confidencialidad podría ser complicado. "La línea siempre es muy fina", afirma el responsable.
Aparentemente, algunos investigadores de inteligencia artificial aceptarían un enfoque más cauteloso. El profesor de la Universidad Estatal de Oregón (EE. UU.) Thomas Dietterich, que ya ha hecho advertencias sobre el potencial criminal de la IA, señala que entre los autores del informe no figuran expertos en seguridad informática ni nadie de la talla de Google, Microsoft y Apple. "El informe parece haber sido escrito por personas bien intencionadas como yo, en lugar de por gente comprometida con la lucha diaria contra el delito cibernético", concluye Dietterich.