.

John Malta

Inteligencia Artificial

Las máquinas inteligentes se unen a un club de la lucha para convertirse en soldados

1

Una competición medirá a unos programas contra otros en tres pruebas en las que tendrán que engañarse, atacarse y confundirse. El objetivo es detectar los programas más fuertes para emplearlos como armas contra las posibles ciberguerras del futuro

  • por Will Knight | traducido por Teresa Woods
  • 31 Julio, 2017

Una nueva competición marca el inicio de un concepto que podría convertirse en el futuro de la ciberseguridad y la ciberguerra, basada en algoritmos de inteligencia artificial (IA) de combate que luchen nuestras guerras.

El concurso, que se desarrollará durante los próximos cinco meses, está dirigido por Kaggle ,una plataforma para concursos de ciencia de datos. El reto enfrentará a los algoritmos de los investigadores mientras se intentan confundir y engañar unos a otros. El objetivo es que el reto ofrezca información sobre cómo reforzar los sistemas de aprendizaje de la máquina contra futuros ataques.

"Catalizar las investigaciones sobre las redes neuronales profundas engañables y las que no pueden ser engañadas es una idea genial", dice el profesor asistente de la Universidad de Wyoming (EEUU), que estudia los límites del aprendizaje automático Jeff Clune.

El concurso tendrá tres componentes. Un reto consistirá en intentar confundir a un sistema de aprendizaje automático para que funcione mal. Otro se centrará en obligar a un sistema para que clasifique algo incorrectamente. Y en el tercero habrá que desarrollar las defensas más robustas. Los resultados serán presentados en una importante conferencia de inteligencia artificial finales de este año.

El aprendizaje automático, en particular el aprendizaje profundo, se están convirtiendo rápidamente en una herramienta indispensable en muchas industrias. La tecnología implica alimentar con datos a la máquina, plantearle el resultado que se quiere obtener y que sea ella la que desarrolle su propio algoritmo para lograr el resultado. Para ello, el programa ajusta los parámetros de una enorme red interconectada de neuronas simuladas matemáticamente.

Hace mucho tiempo se sabe que los sistemas de aprendizaje automático pueden ser engañados. Los spammers pueden, por ejemplo, evadir los filtros modernos de spam determinando qué patrones sigue el algoritmo del filtro. Y en los últimos años, los investigadores han demostrado que incluso los algoritmos más inteligentes pueden ser engañados de manera sorprendente. Por ejemplo, los algoritmos de aprendizaje profundo con habilidad casi humana para reconocer objetos en imágenes pueden ser engañados por imágenes aparentemente abstractas o aleatorias que explotan los patrones que buscan los algoritmos.

"El aprendizaje a partir de máquinas rivales es más difícil de estudiar que el aprendizaje de máquinas convencional, en el que es difícil saber si su ataque es fuerte o si su defensa es realmente débil", explica el investigador de Google Brain Ian Goodfellow, cuya división se dedica a investigar y aplicar el aprendizaje de la máquina, y que ha sido organizador del concurso.

A medida que el aprendizaje automático empieza a dominar el mundo, aumenta el miedo a que estos programas puedan ser engañados para hacer el mal. Los hackers, por ejemplo, podrían evadir las medidas de seguridad para infectar los sistemas con malware. "La seguridad informática se está moviendo hacia el aprendizaje automático. Los malos lo usan para automatizar sus ataques y los buenos para defendernos de ellos", detalla Goodfellow.

En teoría, los delincuentes también podrían engañar a los sistemas de reconocimiento facial y de voz, o incluso poner señales para engañar a los sistemas de visión en coches autónomos para provocar accidentes.

Kaggle se ha convertido en un caldo de cultivo esencial para el desarrollo de algoritmos, y en un semillero de científicos talentosos. La compañía fue adquirida por Google en marzo y ahora forma parte de la plataforma Google Cloud. Goodfellow y otro investigador de Google Brain, Alexey Kurakin, presentaron la idea para el reto antes de la adquisición.

Benjamin Hamner, cofundador y CTO de Kaggle, espera que el concurso llame la atención sobre un problema inminente. "A medida que el aprendizaje automático se masifica, se vuelve imprescindible comprender los problemas y sus riesgos", alerta el experto.

Los beneficios del concurso abierto superan a las desventajas de que los nuevos ataques que se desarrollen se divulguen entre la sociedad. Hammer matiza: "Creemos que esta investigación funcionará mejor si se hace y se comparte en abierto en lugar de estar a puertas cerradas". Clune, por su parte, está interesado en el concurso para probar algoritmos que supuestamente pueden soportar ataques. El experto concluye: "Mi dinero está en sistemas que pueden seguir siendo engañados en un futuro previsible".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores

  2. Meta ofrece gratis un gran conjunto de datos para acelerar el descubrimiento de nuevos materiales mediante IA

    Open Materials 2024 (OMat24) es uno de los mayores conjuntos de datos de entrenamiento de IA para la ciencia de materiales y está disponible de forma abierta y gratuita

  3. ChatGPT discrimina por raza y género según el nombre de usuario en el 0,1% de las interacciones

    MIT Technology Review accede en exclusiva a la investigación sobre estereotipos negativos en los grandes modelos lingüísticos de la empresa