.

Michael Aleo/Unsplash

Inteligencia Artificial

El truco de IA para entrar en un aeropuerto con un pasaporte falso

1

Investigadores de McAfee han logrado engañar a un sistema de reconocimiento facial para que identifique a la persona de una fotografía como si fuera otra. Su trabajo intenta demostrar lo vulnerables que son estos sistemas, cada vez más utilizados en procesos como la vigilancia y la contratación

  • por Karen Hao | traducido por Ana Milutinovic
  • 09 Septiembre, 2020

Un equipo de investigación ha demostrado que puede engañar a un moderno sistema de reconocimiento facial para que crea que ve a alguien que no está allí.

Los investigadores de la empresa de ciberseguridad McAfee organizaron el ataque contra un sistema de reconocimiento facial similar a los que se utilizan actualmente en los aeropuertos para la verificación de pasaportes. Mediante aprendizaje automático, crearon una imagen que parecía una persona para el ojo humano, pero que el algoritmo de reconocimiento facial identificaba como otra diferente, un ejemplo de cómo engañar a la máquina para permitir que alguien suba a un avión a pesar de no aparecer en la lista de pasajeros.

El autor principal del estudio, Steve Povolny, detalla: "Si nos colocamos frente a una cámara en directo que utiliza reconocimiento facial para identificar e interpretar a quién ve y compararlo con una foto de pasaporte, podemos provocar ese tipo de clasificación errónea dirigida de manera realista y repetida".

Cómo funciona

Para confundir al algoritmo, los investigadores utilizaron otro algoritmo de traducción de imágenes conocido como CycleGAN, especializado en transferencias de estilo de una fotografía a otra. Por ejemplo, puede hacer que una foto de un puerto parezca pintada por Monet, o que una foto de montañas tomada en verano parezca que fue captada en invierno.

Ejemplos de cómo cycleGAN transforma las fotos de un estilo a otro, incluyendo convertir una foto en un Monet, un caballo en una cebra y un paisaje de verano en un paisaje de invierno.

El equipo de McAfee usó 1.500 fotos de los dos autores principales del proyecto y las introdujo en CycleGAN para transformarlas entre sí. Al mismo tiempo, utilizó el algoritmo de reconocimiento facial para comprobar las imágenes generadas por CycleGAN para ver a quién reconocía. Después de generar cientos de imágenes, CycleGAN finalmente creó una imagen falsa que a simple vista se parecía a la persona A, pero que engañó al reconocimiento facial para que creyera que era la persona B.

Las etapas intermedias de CycleGAN transformando a la persona A en la persona B

Aunque el estudio plantea claras preocupaciones sobre la seguridad de los sistemas de reconocimiento facial, existen algunas reservas. Primero, los investigadores no tenían acceso al sistema real que utilizan los aeropuertos para identificar a los pasajeros. En lugar de eso, lo aproximaron a un algoritmo de código abierto de última generación. Povolny matiza: "Creo que para un atacante eso sería la parte más difícil de superar, ya que no tiene acceso al sistema objetivo". No obstante, dadas las grandes similitudes entre los algoritmos de reconocimiento facial, considera que es probable que el ataque funcione incluso en el sistema aeroportuario real.

Cómo funcionan las GAN
Las redes generativas antagónicas (GAN, por sus siglas en inglés) son un tipo de algoritmo que hábilmente enfrenta a las redes neuronales entre sí para generar mejores resultados.
En una GAN tradicional, solo hay dos redes: una generativa que se entrena con un conjunto de datos, por ejemplo, con los paisajes de verano, para crear más paisajes estivales; y otra discriminativa o antagónica que compara los paisajes generados con el mismo conjunto de datos para decidir si son reales o falsos.
CycleGAN modifica este proceso al tener dos redes generativas y dos antagónicas. También hay dos conjuntos de imágenes, como paisajes de verano y paisajes de invierno, que representan los tipos de fotos que se quieren mezclar.
Esta vez la primera red generativa se entrena con las imágenes de los paisajes estivales con el objetivo de intentar generar paisajes invernales. La segunda red generativa, por su parte, se entrena con las imágenes de los paisajes invernales para generar paisajes estivales. Ambas redes discriminatorias trabajan duro para descubrir las imágenes falsas hasta que los paisajes falsos sean indistinguibles de los reales.

En segundo lugar, actualmente un ataque de este tipo requiere mucho tiempo y recursos. CycleGAN necesita ordenadores potentes y experiencia para entrenar y ejecutar.

Pero los sistemas de reconocimiento facial y de control automatizado de pasaportes se utilizan cada vez más para la seguridad de los aeropuertos en todo el mundo, un cambio acelerado por la pandemia de coronavirus (COVID-19) y por la demanda de sistemas sin contacto. Esta tecnología también se usa ampliamente por gobiernos y corporaciones en áreas como la aplicación de la leycontratación y seguridad de eventos, aunque muchos grupos han pedido una moratoria sobre tales desarrollos y algunas ciudades han prohibido esta tecnología.

Existen otros intentos técnicos de obstaculizar el reconocimiento facial. Un equipo de la Universidad de Chicago (EE. UU.) lanzó recientemente la herramienta Fawkes, destinada a "camuflar" los rostros alterando ligeramente sus fotos en las redes sociales para engañar a los sistemas de inteligencia artificial (IA) que dependen de las bases de datos con miles de millones de esas imágenes. Los investigadores de la empresa de inteligencia artificial Kneron también mostraron cómo las máscaras pueden engañar a los sistemas de reconocimiento facial que ya se utilizan en todo el mundo.

Los investigadores de McAfee afirman que su objetivo consiste en demostrar las vulnerabilidades inherentes en estos sistemas de IA y dejar claro que los seres humanos deben mantenerse involucrados.

Povolny concluye: "La inteligencia artificial y el reconocimiento facial son herramientas increíblemente poderosas para ayudar en el proceso de identificación y comprobación de personas. Pero cuando simplemente se cogen y sustituyen ciegamente un sistema existente que se basa completamente en un trabajo humano, sin tener ningún tipo de control adicional, entonces de repente quizás se ha introducido una debilidad mayor que la que existía antes".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Qué anticipan los errores de la IA en 2024 sobre su futuro

    La IA ha traído grandes avances, pero también importantes fallos. En este repaso, destacamos los mayores fracasos del año, que van desde chatbots que ofrecen consejos ilegales hasta resultados de búsqueda poco fiables

    Qué anticipan los errores de la IA en 2024 sobre su futuro
  2. De la creatividad humana a la automatización: la IA agrava la precariedad en la traducción de manga

    La editorial japonesa Orange quiere llevar el manga al mayor número posible de lectores, pero algunos fans no están contentos con los resultados de las traducciones realizadas con IA

    La editorial japonesa Orange
  3. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real