.

Mr. Tech

Inteligencia Artificial

Un sencillo truco engaña a la inteligencia artificial para que vea y oiga cosas que no existen

1

El algoritmo Houdini inserta rasgos inapreciables para un humano en audios e imágenes que hacen que la máquina cambie totalmente su interpretación de la realidad. La técnica serviría para testear algoritmos de coches autónomos, pero también para provocar accidentes

  • por Jamie Condliffe | traducido por Patricia R. Guevara
  • 01 Agosto, 2017

A la inteligencia artificial (IA) ya se le da muy bien identificar los objetos de una imagen y reconocer las palabras que dice una persona, pero sus algoritmos no funcionan igual que el cerebro humano. Esto provoca que las máquinas puedan ser engañadas en situaciones en las que jamás se equivocaría un humano.

Según un artículo en New Scientist, unos investigadores de la Universidad Bar-Ilan (Israel) en colaboración con el equipo de IA de Facebook demuestran que si se hacen unos pequeños y sutiles ajustes a un clip de audio, cualquier humano lo entendería como una grabación normal pero la máquina lo reconocería como algo totalmente diferente. Para lograrlo, sólo hay que añadir una capa de ruido silenciosa que contiene patrones específicos que una red neuronal asocia con otras palabras.

El equipo aplicó su algoritmo, llamado Houdini, a una serie de clips de audio. Una vez que el algoritmo insertó las nuevas características en los audios, estos fueron reproducidos ante el programa Google Voice para que los transcribiera. Por ejemplo, uno de los clips originales decía:

Su carácter era gracioso y animado, llevaba a su hijo de la mano y delante de ella, dos criadas caminaban con velas y candelabros de plata.

Cuando ese original fue pasado a través de Google Voice, el programa lo transcribió como:

El carácter era gracioso ella animada dejó a su hijo de la mano y antes de que él caminara dos criadas con velas y candeleros de plata.

Pero la versión modificada por el algoritmo, que los humanos percibieron como similar a la original, fue transcrita así por el programa de Google:

María estaba agradecida, entonces admitió que dejó a su hijo antes de los paseos a Mays le gustaría que el filtro del horno cuente seis.

El avance del equipo también se puede aplicar a otros algoritmos de aprendizaje automático. Por ejemplo, si el programa ajusta imágenes de personas, se puede confundir a un algoritmo especializado en reconocer poses humanas para que crea que el sujeto de la imagen está en una postura distinta a la que está en realidad, como en el ejemplo de la imagen superior. Y cuando Houdini se aplicó a una escena de carretera, el equipo engañó a un algoritmo de detección de coches autónomos para que, en lugar de reconocer elementos como caminos y señales, la máquina viera… un minion. Los resultados del trabajo en imágenes son similares a los de la investigación publicada el año pasado por investigadores de las divisiones de aprendizaje automático OpenAI y Google Brain.

Estos llamados ejemplos contradictorios pueden parecer un área de investigación un tanto extraña, pero sirven para testear los algoritmos de aprendizaje automático. Aunque también podrían dárseles un mal uso si se emplean para engañar a los sistemas de inteligencia artificial para que crean que están viendo u oyendo cosas que en realidad no están ahí. Esto podría convencer a un coche autónomo de que hay tráfico en una vía despejada y engañar a un altavoz inteligente para escuchar comandos incorrectos, por ejemplo. Por supuesto, ejecutar estos engaños en la vida real sería bastante distinto a los ejemplos de laboratorio, dada la dificultad de integrar los datos falsos en los sistemas del vehículo y el altavoz.

Lo más interesante de la investigación es que resulta bastante difícil encontrar una manera de proteger a las inteligencias artificiales contra este tipo de artimañas. Como hemos explicado en otras ocasiones, todavía no sabemos cómo funcionan por dentro las redes neuronales, por lo que tampoco entendemos por qué son receptivas a estas características tan sutiles en un clip de voz o una imagen. Y hasta que no lo hagamos, los ejemplos contradictorios seguirán siendo, en fin, engañosos para las máquinas.

(Para saber más: El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?, Los ordenadores ven mejor que los humanos hasta que alguien intenta engañarlos)

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla