.

Inteligencia Artificial

La IA que controla los coches de Google es reconocida como conductor humano

1

La Administración Nacional de Seguridad en Carretera de EEUU está de acuerdo en que si el vehículo no permite ser pilotado por un humano, la máquina debe ser considerada como el conductor

  • por Will Knight | traducido por Teresa Woods
  • 12 Febrero, 2016

La agencia federal que regula los estándares de seguridad vehicular en Estados Unidos le ha dicho a Google que considera que los sistemas informáticos que controlan sus coches autónomos representan "conductores".

Esta declaración, en una carta emitida por la Administración Nacional de Seguridad en Carretera de Estados Unidos (NHTSA, por sus siglas en inglés) a Google (ahora un filial de Alphabet), señala un importante avance hacia la venta y operación en carreteras estadounidenses de los coches autónomos.

Foto: El secretario de transporte estadounidense, Anthony Foxx, (a la derecha) y el presidente de Alphabet, Eric Schmidt, montan en un coche autónomo en la sede central de Google en Mountain View, California, en 2015.

Los esfuerzos de Google por crear un vehículo totalmente autónomo sin volante ni pedales se vieron obstaculizados anteriormente por las regulaciones de California (EEUU) que estipulan que un "conductor" debe encontrarse al volante en caso de emergencia.

La esencia de esta carta, dirigida al líder del proyecto de coche autónomo de Google, Chris Urmson, anula esa regulación. "Si ningún ocupante humano del vehículo puede conducirlo, es más razonable identificar como 'conductor' aquello que sea (en lugar de quién sea) lo que esté ocupándose de la conducción", detalla. El texto de la NHTSA continúa: "Estamos de acuerdo con Google en que sus coches autónomos no dispondrán de un 'conductor' en el sentido clásico que ha permanecido vigente durante los últimos 100 años".

La NHTSA se mueve deprisa para proporcionar un marco para que los estados regulen los vehículos autónomos, y se espera que en los próximos seis meses publique una guía de recomendaciones. Pero eso no significa que la agencia no prevea retos de seguridad provocados por los coches autónomos.

De hecho, el pasado martes el administrador de la NHTSA, Mark Rosekind, visitó el Instituto Tecnológico de Massachusetts (MIT, EEUU) para hablar de las implicaciones de los coches autónomos. Rosekind calificó la tecnología como algo menos importante que otros factores humanos como la regulación y la infraestructura para poder llevar la tecnología al mercado.

"Eso indica que la inteligencia artificial es lo suficientemente buena", afirma el investigador científico del MIT que estudia los sistemas de conducción autónoma Bryan Reimer y que organizó el evento.

Las propias investigaciones de Reimer han demostrado que el reto más problemático será el de gestionar el comportamiento humano al volante de un coche autónomo. Los conductores normalmente rinden bastante mal a la hora de monitorizar sistemas automatizados, por lo que rara vez son capaces de volver a asumir el control con rapidez.

"La mayor parte de la industria automovilística, y Google, siguen tratándolo como un problema de tecnología", afirma Reimer, y concluye: "Pero si quieres llevar una innovación al mercado, lo difícil es lo más impredecible, nosotros".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos