Inteligencia Artificial
Los filósofos entrenan a los coches autónomos para tomar decisiones éticas
Los vehículos deberían poder decidir entre chocar contra un niño o herir a los propios ocupantes para salvarle
Un filósofo quizás sea la última persona que te imaginarías jugando un papel en el diseño de tu próximo coche, pero eso es exactamente lo que tiene en mente un experto en los vehículos autónomos.
Chris Gerdes, un profesor de la Universidad de Stanford (EEUU), dirige un laboratorio de investigación que experimenta con hardware sofisticado y software para la conducción autónoma. Pero junto con Patrick Lin, un profesor de Universidad Estatal Politécnica de California (EEUU), también explora los dilemas éticos que pueden surgir cuando la conducción autónoma se despliegue en el mundo real.
Gerdes y Lin organizaron un taller en la Universidad de Stanford este año que reunió a filósofos e ingenieros para debatir el tema. Implementaron distintas configuraciones éticas dentro del software que controla los vehículos autónomos y luego probaron el código en simulaciones e incluso en vehículos reales. Tales configuraciones podrían, por ejemplo, mandar al coche priorizar evitar chocar con seres humanos sobre evitar chocar con vehículos estacionados, o mandarle que no se desvíe para evitar chocar con ardillas.
Los vehículos totalmente autónomos todavía se encuentran en la fase de investigación, pero la tecnología de la conducción automatizada se está introduciendo cada vez más en los vehículos. Durante los próximos años, varios fabricantes tienen planes de lanzar vehículos capaces de encargarse de la dirección, la aceleración y el frenado en carretera durante largos trayectos. Algunos coches ya llevan incorporados sensores que pueden detectar a peatones y ciclistas, y avisa al conductor si parece que se vaya a chocar con alguien.
Hasta ahora, los coches autónomos se han visto envueltos en muy pocos accidentes. Los coches autónomos de Google han recorrido casi un millón de millas de carretera (lo que equivale a 1,6 millones de kilómetros) con tan sólo unos pocos choques pequeños, y estos vehículos típicamente solucionan las situaciones inciertas simplemente deteniendo la marcha (ver Google culpa al conductor distraído de los accidentes con sus coches autónomos).
Pero mientras que avance la tecnología, y los coches se vuelvan más capacitados para interpretar escenarios más complejos, los sistemas de conducción autónoma pueden necesitar tomar decisiones en una fracción de segundo que suscitan inquietudes éticas reales.
En un evento reciente de la industria, Gerdes dio un ejemplo de uno de estos escenarios: un niño sale de repente a la carretera, obligando al coche autónomo a elegir entre chocar contra el niño o desviarse para chocar con una furgoneta que se aproxima en dirección contraria.
"Cuando observamos esta escena con ojos humanos, uno de estos obstáculos es mucho más valioso que el otro", dijo Gerdes. "¿Cuál es la responsabilidad del coche?"
Gerdes señaló que podría incluso ser preferible desde un punto de vista ético poner en riesgo a los pasajeros del coche autónomo. "Si eso evitaría al niño, si salvaría la vida del niño, ¿podríamos lesionar al ocupante del vehículo? Son decisiones muy duras a las que se enfrentan los algoritmos de control de los coches autónomos a diario", afirmó.
Gerdes pidió a los investigadores, ingenieros y ejecutivos automovilísticos durante el evento que se preparen para considerar las implicaciones éticas de la tecnología que están desarrollando. "No vas a poder ir a coger el módulo ético y conectarlo a tu coche autónomo sin más", dijo.
Otros expertos están de acuerdo en que habrá una importante dimensión ética en el desarrollo de la tecnología de la conducción autónoma.
"Cuando pides a un coche que tome una decisión, tienes un dilema ético", explica Adriano Alessandrini, un investigador que trabaja en vehículos autónomos en la Universidad de Roma La Sapienza en Italia. "Puedes ver algo en tu camino, y puedes decidir cambiar de carril, y mientras lo haces, puedes encontrar que otra cosa está ocupando ese carril. Así que eso es un dilema ético".
Alessandrini lidera un proyecto llamado CityMobil2, que realiza pruebas con vehículos autónomos de transporte en ciudades italianas. Estos vehículos son mucho más sencillos que los coches que están desarrollando Google y otros fabricantes; simplemente siguen una ruta y frenan si se encuentran con algún obstáculo. Alessandrini cree que esto podría hacer que la tecnología resulte más fácil de desplegar. "No tendremos este problema ético", afirma.
Otros creen que la situación es algo más complicada. Por ejemplo, Bryant Walker-Smith, un profesor adjunto de la Universidad de Carolina del Sur (EEUU) que estudia las implicaciones legales y sociales de los vehículos autónomos, dice que muchas decisiones éticas ya se toman durante el proceso de ingeniería automovilística. "La ética, la filosofía, la ley: todas estas asunciones sustentan tantas decisiones", dice. "Si consideras los airbags, por ejemplo, es inherente a esa tecnología la asunción de que vas a salvar muchas vidas, y cobrar sólo unas pocas".
Walker-Smith añade que, dado el número actual de accidentes de tráfico mortales causados por error humano, podría considerarse inmoral ralentizar demasiado la introducción de la tecnología de conducción autónoma. "La mayor cuestión ética es a qué ritmo avanzaremos. Tenemos una tecnología que podría salvar muchas vidas, pero que no va a ser perfecta y también va a matar".