.

Inteligencia Artificial

Tesla es investigada por un accidente de coche mortal a manos de Autopilot

1

El suceso pone de manifiesto la necesidad de fijar estándares de seguridad y de atención del conductor para los sistemas de conducción autónoma y de que entendamos que tendrán accidentes

  • por Tom Simonite | traducido por Teresa Woods
  • 04 Julio, 2016

Los coches matan a más de 30.000 personas al año solo en Estados Unidos. Las empresas que trabajan en la conducción autónoma, como Tesla y Google, emplean esta cifra a menudo para argumentar que cualquier tecnología que pueda reducir significativamente los siniestros en carretera se merece una seria atención.

Pero aunque los coches autónomos sean más seguros que los convencionales, se seguirán viendo envueltos en accidentes. Ningún software es perfecto. Y según maduren las tecnologías de conducción autónoma, los reguladores y la sociedad al completo tendrán que decidir cuán seguros deberán ser estos vehículos. De hecho, se ha llegado a argumentar que en algunas situaciones los vehículos autónomos han de ser programados para escoger activamente a qué personas hacer daño.

Esas espinosas cuestiones se vuelven hoy más concretas con la noticia de que Tesla está siendo investigada por la Administración Nacional de Seguridad del Transporte en Carretera de Estados Unidos (NHTSA, por sus siglas en inglés) tras un accidente mortal en el que el sistema Autopilot estuvo involucrado. Este sistema de conducción autónoma es capaz cambiar de carril y regular la velocidad durante la conducción en autopista en algunos de los modelos de la automovilística.

Foto: El sedán de Tesla Motors, el Modelo S. Crédito: Tesla Motors.

En Florida (EEUU) en mayo, un sedán Modelo S de Tesla embistió a un remolque que cruzaba la carretera mientras el sistema controlaba el coche. Ni Autopilot ni el conductor pisaron el freno. En una actualización de blog publicada el pasado jueves, Tesla Motors explicó que Autopilot no registró el lateral blanco del remolque contra el fondo del despejado cielo azul.

El sistema es capaz de dirigir el coche, detectar obstáculos y demarcaciones de carril y accionar el freno, todo de forma autónoma. Pero está mucho menos capacitado que un humano y carece de la sofisticación y de los sensores de alta resolución de los que disponen otros proyectos de conducción autónoma más maduros como el de Google.

Tesla ha sido criticada por promocionar la comodidad de Autopilot (cuyo nombre sugiere que no requiere ninguna intervención humana) al tiempo que sostiene que los conductores han de estar preparados para intervenir y asumir el control de la conducción en cualquier momento. Los líderes del proyecto de coches autónomos de Google, Chris Urmson, ha dicho que los experimentos de la empresa han demostrado que no se puede depender de los conductores humanos de esa manera, porque se confían rápidamente de que el coche sabe lo que hace. Igualmente, el CEO de Tesla, Elon Musk, ha dicho que los datos de su empresa sugieren que Autopilot es dos veces más seguro que los conductores humanos.

No sabemos aún exactamente qué pasó en el accidente mortal de mayo. El comunicado de Tesla enfatiza que el conductor sabía que siempre debía mantener un ojo puesto en lo que hacía Autopilot. Pero si la NHTSA concluye que el diseño de Autopilot tuvo la culpa, Tesla podría enfrentarse a una retirada del producto, o simplificar la prestación. Eso podría dañar tanto a Tesla como al entusiasmo acerca de estas tecnologías en general.

Sea cual sea el resultado de la investigación de la NHTSA, el incidente supone una oportunidad para considerar los estándares que apliquemos al software de conducción autónoma y a las empresas que lo diseñan. Si la conducción autónoma acaba siendo adoptada de forma masiva, tendremos que aceptar que acabará estando involucrada en accidentes, que podrían llegar a ser mortales, y que podrían ser culpa de la propia ineficiencia de los sistemas.

Los conductores humanos fijan un listón muy bajo: alrededor del 90% de los accidentes son causados por errores humanos, y errores estúpidos como conducir mientras se escriba un mensaje en el móvil o conducir ebrio matan a demasiadas personas. Resulta fácil pensar que las máquinas podrían subir el listón. Pero decidir cuán mejores han de ser resultará mucho más complicado.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  2. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  3. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA