.

Inteligencia Artificial

Elon Musk reconoce que Autopilot es demasiado peligroso para los humanos

1

Algunos conductores casi se estrellan probando el nuevo sistema de conducción autónoma de Tesla por lo que le añadirán algunos límites

  • por Tom Simonite | traducido por Teresa Woods
  • 12 Noviembre, 2015


Foto:
Un Modelo S y un Modelo X, ambos de Tesla, en el supercargador de California.

El CEO de Tesla, Elon Musk, admitió (aunque de forma indirecta) algo impactante la semana pasada: las prestaciones de conducción autónoma de su sistema Autopilot, lanzado hace poco, son demasiado peligrosas. En una reunión de beneficios con sus inversores, Musk dijo que se añadirán unas "limitaciones adicionales" en respuesta a las pruebas de que algunas personas han llevado esta prestación demasiado lejos. "Se han publicado algunos vídeos bastante locos en YouTube", dijo. "Esto no está bien".

Hay pruebas de que algunas personas han experimentado con los límites de Autopilot tanto a propósito como por accidente (ver Los conductores de Tesla casi se estrellan probando el nuevo sistema Autopilot). Pero mientras que algunos individuos han sido claramente imprudentes, Tesla tiene parte de la responsabilidad también por el modo en el que ha diseñado y desplegado su sistema, como parece darse cuenta Musk.

Musk no mencionó ninguna "limitación" específica que se vaya a añadir para hacer más segura la prestación de conducción autónoma. Una mejora obvia sería obligar a que siempre haya alguien sentado en el asiento del conductor. Como demuestra este vídeo de un Tesla que se conduce sólo por una calle privada sin que nadie esté al volante, el sistema sólo requiere que el cinturón de seguridad del conductor esté enganchado, aunque el asiento del conductor dispone de un "sensor de ocupación".

Si Google tiene razón acerca de las relaciones que se forman entre los humanos y los coches autónomos, unas restricciones así no serían suficientes. El último diseño de coche de Google no tiene volante porque las pruebas realizadas con unos todoterrenos convencionales modificados para conducirse solos demostraron que las personas no tardaban en desconectarse de forma peligrosa de lo que sucedía a su alrededor. Cuando el coche necesitaba que volvieran a asumir el control del vehículo porque no podía gestionar una situación determinada, no estaban preparados (ver La pereza dirige el diseño el nuevo coche autónomo de Google).

Musk ha dicho que cree que los coches completamente autónomos son inevitables. Pero Tesla es un proveedor de coches convencionales y parece que Musk está comprometido a añadircada vez más autonomía mientras siga dependiendo de los humanos para que se mantengan atentos y sensibles. Para Google, este camino es demasiado peligroso.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. De predicar el pastafarismo a votar leyes: el experimento en Minecraft que creó una sociedad propia con IA

    Un experimento en Minecraft con personajes impulsados por IA demostró que, de manera autónoma, pueden desarrollar comportamientos similares a los humanos, como hacer amigos, inventar roles laborales o incluso difundir una religión como el pastafarismo entre sus compañeros para ganar adeptos

  2. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  3. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real