.

Cortesía de Otto

Inteligencia Artificial

La mayor amenaza de los coches autónomos son los hackers

1

Los vehículos que conducen solos provocarán muchos despidos y enfados en personas con suficiente tiempo libre como para buscar formas de atacarlos. Y por mucho que evolucionan los sistemas de seguridad, también lo hacen las técnicas de ciberataque

  • por Simson Garfinkel | traducido por Patricia R. Guevara
  • 28 Agosto, 2017

Antes de que los camiones y los taxis autónomos conquisten las carreteras, sus fabricantes tendrán que resolver problemas mucho más complejos que los relacionados con evitar las colisiones y con la navegación en sí (ver 10 Tecnologías Emergentes: Camiones sin conductor).

Estos vehículos tendrán que anticiparse y defenderse contra un gran espectro de atacantes con malas intenciones, que manejan tanto ciberataques tradicionales como una nueva generación de ataques basados ​​en el llamado aprendizaje automático antagónico (ver Las máquinas inteligentes se unen a un club de la lucha para convertirse en soldados). A medida que aumenta el consenso sobre la llegada inminente de los vehículos autónomos a las ciudades, tanto en forma de taxis robotizados como en autopistas para aliviar el aburrimiento mental de los camioneros de larga distancia, los riesgos de ataque ha desaparecido en gran medida de la cobertura de primera plana.

Esto me recuerda a numerosos artículos que promovían el correo electrónico a principios de la década de 1990, antes de que el nuevo mundo de las comunicaciones electrónicas estuviera inundado de correo basura no deseado. En aquel entonces, la promesa del aprendizaje automático se presentaba como una solución a los problemas de spam que afectaban a todo el mundo. Y, de hecho, hoy en día los contratiempos del correo basura se han resuelto en gran medida, pero han hecho falta décadas para conseguirlo.

De momento, no existen informes sobre los hostiles piratas informáticos que apuntan a los vehículos autónomos. Irónicamente, sin embargo, eso es un problema. No hubo atacantes maliciosos cuando, en la década de 1990, las primeras empresas puntocom desarrollaron las primeras plataformas de comercio electrónico. Después de la primera gran ronda de hackers de este tipo de comercio, Bill Gates escribió una circular a Microsoft exigiendo que la compañía se tomara la seguridad en serio. El resultado: hoy Windows es uno de los sistemas operativos más seguros, y Microsoft gasta cerca de 1.000 millones de euros en ciberseguridad cada año. Sin embargo, los expertos siguen encontrando fallos en los sistemas operativos Windows, los navegadores web y las aplicaciones.

Es probable que las compañías de automóviles vivan un proceso similar. Después de sentirse muy avergonzadas por no haber tenido en cuenta para nada el problema de la seguridad (el autobús CAN, diseñado en la década de 1980, no tiene concepto de autenticación) ahora parece que le están prestando atención. Cuando los hackers demostraron que los vehículos en carretera eran vulnerables a varias amenazas específicas de seguridad, los fabricantes respondieron retirando y actualizando millones de automóviles. En julio pasado, la CEO de GM, Mary Barra, dijo que proteger los automóviles de un incidente de ciberseguridad "es una cuestión de seguridad pública".

Pero los esfuerzos que se están realizando pueden estar fallando en la última tendencia de seguridad. La visión artificial y los sistemas para evitar colisiones que están en desarrollo se basan en complejos algoritmos de aprendizaje automático que no terminan de entenderse bien, ni siquiera por las empresas que dependen de ellos (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

El año pasado, investigadores de la Carnegie Mellon University (EEUU) demostraron que los algoritmos de reconocimiento facial de última generación podían ser engañados con un par de gafas transparentes con un patrón impreso en su montura. Alguna característica del patrón hizo que el algoritmo cambiara de idea y empezara a creer que veía cosas que en realidad no estaban ahí. El investigador principal del trabajo, Mahmood Sharif, afirma por correo electrónico:"Hemos demostrado que los atacantes pueden evadir algoritmos de reconocimiento facial de última generación basados en redes neuronales con el propósito de suplantar a una persona en particular, o simplemente para identificarse de manera incorrecta". (ver Esta imagen vale más que mil palabras para analizar los riesgos de la conducción autónoma)

También el año pasado, investigadores de la Universidad de Zhejiang (China), y la empresa de seguridad china Qihoo 360, demostraron que podrían introducir varios sensores en un Tesla S, haciendo que los objetos fueran invisibles a su sistema de navegación.

Muchos artículos recientes sobre la conducción autónoma minimizan o incluso ignoran la idea de que pueda haber adversarios activos, versátiles y maliciosos intentando que los vehículos se estrellen. En una entrevista con MIT Technology Review , el presidente de la Junta Nacional de Seguridad en el Transporte, Christopher Hart, dijo que era "muy optimista" respecto a que los automóviles de conducción automática reduzcan el número de accidentes en las carreteras nacionales. Al discutir los temas de seguridad, Hart se enfocó en la necesidad de programar vehículos para tomar decisiones éticas. Por ejemplo, que una camioneta de más de 36.000 kilos de repente bloquee el camino de un automóvil.

¿Por qué alguien querría hackear un coche autónomo, sabiendo que podría provocar una muerte? Una razón es que el despliegue generalizado de vehículos autónomos podría provocar un montón de despedidos, con sus subsecuentes enfados.

En agosto de 2016, el CEO de Ford, Mark Fields, dijo que planeaba tener vehículos totalmente autónomos funcionando como taxis urbanos para 2021. Google, Nissan y otras compañías planifican disponer de vehículos similares en las carreteras en 2020. Esos taxis automatizados o vehículos de entrega podrían ser objetivos vulnerables a ser deslumbrados con un puntero láser de alta potencia por un camionero desempleado, un exconductor de Uber que todavía tiene que pagar su coche, o simplemente un grupo de adolescentes aburridos.

Sarah Abboud, portavoz de Uber, respondió: "Nuestro equipo de expertos en seguridad están explorando nuevas defensas para el futuro de los vehículos autónomos constantemente, incluida la integridad de los datos y la detección de abusos. Sin embargo, a medida que evoluciona la tecnología autónoma, también lo hace el modelo de amenaza, lo que significa que algunos de los problemas actuales de seguridad probablemente diferirán de los que se traten en un entorno verdaderamente autónomo".

Sólo un par de accidentes bastarían para detener el avance de los vehículos sin conductor. Esto probablemente no obstaculizará los sistemas avanzados de piloto automático, pero es probable que sí sea un elemento disuasorio considerable para la utilización de vehículos completamente autónomos.

Simon Garfinkel es un escritor científico que vive en Arlington, Virginia. Está trabajando en un nuevo libro sobre la historia de la informática.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla