Inteligencia Artificial
La inteligencia de los coches autónomos podría resultar imposible de descifrar
Se sabe cómo programar un coche inteligente para que detecte obscátulos y tome decisiones, pero nadie sabe por qué toma las decisiones que toma, algo imprescindible en caso de accidente
Dos recientes accidentes en los que el sistema Autopilot de Tesla estuvo involucrado pueden suscitar preguntas acerca de cómo los sistemas informáticos basados en el aprendizaje deberían ser validados e investigados cuando algo sale mal.
En Florida (EEUU) se produjo un accidente mortal el mes pasado cuando un Modelo S controlado por Autopilot chocó con un camión que el sistema no divisó. Tesla insta a los conductores a seguir prestando atención a la conducción durante el uso de Autopilot, y explica en un descargo de responsabilidad que el sistema puede fallar con un exceso de luz solar. El pasado jueves la Administración Nacional de Seguridad en Carretera de Estados Unidos anunció estar investigando otro accidente producido hace dos semanas en Pensilvania (EEUU). En este inciente, un Modelo X chocó contra las barreras de ambos lados de una autopista y después volcó. El conductor afirmó que su coche estaba siendo operado por Autopilot en ese momento.
Tesla no ha divulgado exactamente cómo funciona Autopilot. Pero las técnicas de aprendizaje de máquinas se usan cada vez más para entrenar sistemas automovilísticos, especialmente para reconocer informaciones visuales. MobileEye, una empresa israelí que proporciona tecnología a Tesla y otros fabricantes automovilísticos, ofrece software basado en aprendizaje profundo para reconocer vehículos, demarcaciones de carril, señales de tráfico y otros objetos en imágenes de vídeo.
Foto: Un técnico examina un Tesla con un portátil. Crédito: VCG (Getty Images).
El aprendizaje de máquinas puede proporcionar una manera más fácil de hacer cosas que resultan increíblemente difíciles de codificar a mano. Por ejemplo, una red neuronal de aprendizaje profundo puede ser entrenada para reconocer perros en fotos y vídeos con una increíble precisión siempre que haya podido estudiar suficientes ejemplos. La otra cara de la moneda es que puede resultar más complicado entender cómo funcionan estos sistemas.
Una red neuronal puede ser diseñada para proporcionar una medida de su propia confianza dentro de una categoría, pero la complejidad de los cálculos matemáticos implica que no es fácil descomponer la red para entender cómo toma las decisiones. Esto puede hacer que los comportamientos no deseados resulten difíciles de predecir; y en caso de producirse un error, puede resultar complicado explicar el por qué. Si un sistema falla al reconocer un objeto dentro de una foto, por ejemplo, puede ser difícil (aunque no imposible) identificar qué características de la imagen dieron paso al error. Existen retos similares con otras técnicas de aprendizaje de máquina.
A medida que estos algoritmos sean más comunes, los reguladores tendrán que considerar cómo deberían ser evaluados. Las automovilísticas son conscientes de que unos coches autónomos cada vez más complejos y automatizados podrán resultar difíciles de analizar para los reguladores. Toyota está financiando un proyecto de investigación en el Instituto Tecnológico de Massachusetts (MIT, EEUU) que explorará distintas maneras para que los vehículos autónomos expliquen sus acciones después de llevarlas a cabo. El fabricante japonés está financiando varios proyectos de investigación relacionados con los retos de los coches autónomos.
El aprendizaje profundo puede ser empleado para controlar un coche a partir de datos del sensor, más allá de sólo reconocer objetos dentro de las imágenes. Un equipo de la Universidad de Princeton (EEUU) diseñó un sistema de conducción autónoma basado en el aprendizaje profundo. E investigadores del fabricante de chips Nvidia, que proporciona un abanico de hardware a las automovilísticas, han demostrado un vehículo autónomo que depende totalmente del aprendizaje profundo.
El investigador científicos del MIT y el fundador de nuTonomy, una start-up centrada en los taxis autónomos, Karl Iagnemma, dice que un sistema de aprendizaje profundo de extremo a extremo resultaría difícil de descifrar. "Se desarrolla un algoritmo caja negra que es entrenado con ejemplos de conducción segura pero cuyo rendimiento representa una función bastante inescrutable", señala.
El profesor adjunto de la Universidad de Stanford (EEUU) Silvio Savarese, especializado en visión de máquinas, dice que una desventaja del aprendizaje de máquinas convencional es que carece de la capacidad humana de sacar conclusiones a partir de varias formas de información. Incluso si un vehículo está temporalmente obstruido, una persona podría suponer que podría convertirse en un obstáculo dada su trayectoria. Por eso Sacarese matiza: "Nosotros utilizamos una gran cantidad de información contextual. A los mecanismos actuales de aprendizaje no se les da bien".
La investigación de Tesla está siendo seguida de cerca por los desarrolladores de tecnologías de conducción autónoma. Sean cuales sean las conclusiones, existe inquietud acerca de la percepción pública de la tecnología y su seguridad. Iagnemma no quiere observar una reacción precipitada al accidente. El experto asegura: "Nos encontramos en un momento en el que esto podría frenar los progresos. Si la sabiduría colectiva evolucionara para que un sólo accidente signifique que los desarrolladores fueron temerarios, se fijaría un listón altísimo".