.

Volvo

Inteligencia Artificial

El accidente mortal del Uber autónomo podría no perjudicar al sector

1

La primera muerte de un peatón causada por un vehículo autónomo hace que algunos se cuestionen si la tecnología avanza demasiado deprisa. Pero ya se han producido otros accidentes mortales asociados a estos automóviles y ni el público ni los reguladores parecieron demasiado preocupados

  • por Will Knight | traducido por Mariana Díaz
  • 21 Marzo, 2018

Después de que un Uber sin conductor matara a un peatón en Arizona (EE. UU.) el domingo por la noche, la industria del coche autónomo va a empezar a estar sometida a un escrutinio público mucho mayor.

Los detalles completos del accidente no están claros, pero la policía local emitió una declaración en la que afirmaba que una mujer fue golpeada mortalmente mientras pasaba frente a un Uber que circulaba en modo autónomo. La empresa dice que está cooperando con la investigación policial y ha suspendido las pruebas de sus vehículos autónomos en varias ciudades.

Es la primera vez que un vehículo que conduce solo acaba con la vida de un peatón; un suceso que está provocando que muchos se replanteen si la tecnología está avanzando demasiado deprisa. Además de Uber, docenas de compañías, incluyendo grandes fabricantes establecidos y pequeñas start-ups, se han apresurado a probar vehículos autónomos experimentales y sistemas autónomos en carretera. Estos proyectos han sido bien recibidos por los gobiernos locales, dado el potencial de esta tecnología y el hecho de que, en general, en las pruebas siempre había un conductor humano de apoyo. De hecho, en el accidente mortal de Uber también había un conductor de seguridad en el asiento delantero.

Aunque la conducción autónoma podría salvar innumerables vidas en las carreteras, algunos creen que la tecnología se está implementando demasiado rápido. Otros la han glorificado y han defendido que ya estaba lista para ser implementada a gran escala, pero "esto es una prueba evidente de que todavía no se puede", advierte el investigador del MIT (EE. UU.) Bryan Reimer, especializado en conducción autónoma. El experto añade: "Hasta que no entendamos mejor las pruebas y el despliegue de estos sistemas debemos tomarnos nuestro tiempo y trabajar en mejorar la tecnología".

Es poco probable que el accidente siente un precedente legal, según el investigador de la Universidad de Washington (EE. UU.) Ryan Calo, que investiga las implicaciones legales de los vehículos autónomos. Incluso si se determina que la víctima fue en parte responsable, la compañía también puede serlo, por lo que le interesa mucho resolver el problema para evitar que se convierta en un caso de prueba, afirma Calo.

El experto hace un llamamiento a los desarrolladores de vehículos con inteligencia artificial (IA) para que piensen detenidamente en el impacto potencial que sus sistemas pueden tener en las vidas humanas y consideren las implicaciones legales y éticas.

Las cuestiones éticas que rodean a los vehículos sin conductor (y especialmente la situación conocida como el "dilema del tranvía", en la que un vehículo debe decidir entre dos posibles víctimas en un accidente) están enturbiando la situación. Calo matiza: "No creo que los debates sobre el dilema del tranvía hayan sido útiles". Sobre el accidente que mató a la mujer en Arizona, Calo cree que "los sensores probablemente no la identificaron o que el algoritmo no entendió lo que estaba viendo".

Los reguladores sin duda empezarán a analizar más profundamente la tecnología después de este último revés. Ayer, la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA, por sus siglas en inglés) y la Junta Nacional de Seguridad del Transporte del país (NTSB, por sus siglas en inglés) anunciaron que ya han abierto una investigación sobre el caso.

El profesor de la Universidad Estatal de Arizona Subbarao Kambhampati, especializado en inteligencia artificial, dice que el accidente de Uber plantea preguntas sobre la capacidad de los responsables de seguridad para monitorizar los sistemas de manera efectiva, especialmente después de largas horas de pruebas. Una investigación de hace un par de años liderada por Reimer refuerza este argumento. Otro estudio ha demostrado que será necesario (pero no fácil) establecer comunicaciones entre los sistemas autónomos y los peatones.

El accidente se ha producido mientras la tecnología empezaba a avanzar a ritmo acelerado y comenzaba a parecer oportuno ablandar las restricciones legales. Waymo, una subsidiaria de Alphabet, anunció a finales del año pasado que iba a prescindir del conductor de seguridad de sus vehículos y que planeaba lanzar un servicio de taxis sin conductor en EE. UU. este mismo año.

Hace solo unos días, Waymo, Uber y otras empresas habían instado al Congreso de Estados Unidos a aprobar una legislación que allane el camino para los vehículos autónomos. Pero este accidente tiene muchas probabilidades de dificultar (si no impedir) su petición.

Aunque la tecnología aún no se ha comercializado, ya se han producido varios accidentes, incluido uno ocurrido en Florida (EE. UU.) en mayo de 2016 que involucró un Tesla Modelo S que conducía en modo autónomo. El Tesla no pudo ver un camión al otro lado de la carretera y, en consecuencia, el conductor del vehículo autónomo murió en el accidente. Aunque las investigaciones concluyen que la tecnología fue la culpable en varios de estos accidentes, nadie se ha animado a implementar reglas más estrictas ni a detener las pruebas por completo.

Hasta ahora, la opinión pública no parecía demasiado contraria a los coches autónomos, ni siquiera después de los accidentes que causaron. Y no está claro que eso vaya a cambiar ahora. Kambhampati concluye: "No estoy seguro de que esto vaya a generar una preocupación o reacción pública. Sinceramente, creía que el público tendría una reacción más violenta después del accidente de Tesla".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla