.

Daniel James Zedner

Inteligencia Artificial

Menos datos y más psicología para dar sentido común a los coches autónomos

1

Es imposible modelar cada situación que puede darse en la vida real. Por eso, la 'start-up' iSee se está apoyando en la ciencia cognitiva para desarrollar un nuevo enfoque de inteligencia artificial que consiga que los coches no sólo perciban lo que pasa sino que también lo entiendan 

  • por Will Knight | traducido por Maximiliano Corredor
  • 27 Septiembre, 2017

Boston (EEUU), donde los conductores son famosos por su carácter hostil y las carreteras lo son por su caos, puede convertirse en un terreno de pruebas perfecto para un tipo totalmente distinto de vehículo autónomo.

Una spin-off del MIT llamada iSee está desarrollando y probando un sistema de conducción autónoma que utiliza un nuevo enfoque de inteligencia artificial (IA). En lugar de depender de reglas simples o algoritmos de aprendizaje automático para enseñar a conducir a los coches, la start-up se está inspirando en la ciencia cognitiva para dotar a las máquinas de una especie de sentido común y la capacidad de lidiar rápidamente con nuevas situaciones. Sus algoritmos intentan imitar la forma en que los humanos comprenden y aprenden sobre el mundo físico, incluida la interacción con otras personas. Este enfoque podría dar paso a vehículos autónomos mucho mejor equipados para hacer frente a escenarios desconocidos y complejas interacciones en la carretera.

El cofundador de iSee Yibiao Zhao, afirma: "La mente humana es súper sensible a las señales físicas y sociales. Per la IA actual es relativamente limitada en esa área, y creemos que esa es la pieza que falta en la conducción".

La empresa de Zhao aún no parece un líder mundial. Un pequeño equipo de ingenieros trabaja en un modesto espacio de laboratorio en The Engine, una nueva compañía de inversión creada por el MIT para financiar empresas innovadoras tecnológicas locales. Ubicada a solo un paso del campus del MIT, The Engine tiene vistas a una calle en la que los conductores se agolpan buscando plazas de aparcamiento y se incorporan agresivamente al tráfico.

Los escritorios dentro del espacio de iSee están cubiertos con sensores LIDAR y piezas de hardware que el equipo ha montado para controlar su primer prototipo, un sedán Lexus que originalmente perteneció a uno de los cofundadores de la compañía. Varios ingenieros se sientan detrás de grandes monitores de ordenador mirando fijamente las líneas de código.

iSee puede parecer ridículamente pequeña en comparación con las divisiones de coches autónomos en empresas como Waymo, Uber y Ford. Pero la tecnología que está desarrollando podría tener un gran impacto en muchas áreas en las que hoy se aplica la IA. Permitir que las máquinas aprendan con menos datos y desarrollen algo parecido a sentido común podría hacer que los robots industriales fueran más inteligentes, especialmente ante nuevas situaciones. Recientemente se han logrado progresos espectaculares en IA gracias al aprendizaje profundo, una técnica que emplea vastas redes neuronales hambrientas de datos (ver 10 Tecnologías Emergentes 2013: Aprendizaje profundo).

Cuando se le proporcionan grandes cantidades de datos, las redes neuronales muy grandes o profundas son capaces de reconocer patrones sutiles. Dale a una gran red neuronal un montón de fotos de perros, por ejemplo, y averiguará cómo detectar un perro en casi cualquier imagen. Pero la capacidad del aprendizaje profundo tiene límites, y puede que hagan falta algunas ideas totalmente nuevas para dar el siguiente gran salto. Por ejemplo, un sistema de aprendizaje profundo para detección de perros no entiende que los perros suelen tener cuatro patas, pelo y una nariz húmeda. Y es incapaz reconocer otros tipos de animales, o un dibujo de un perro, sin más entrenamiento.

La conducción implica mucho más que el reconocimiento de patrones. Los conductores humanos dependen de una comprensión constante y con sentido común del mundo. Saben que los autobuses tardan más en detenerse, por ejemplo, y que de repente pueden salir muchos peatones. Programar un coche autónomo para estar preparado frente a todos los escenarios que podría encontrarse es imposible. Pero las personas son capaces de usar su comprensión del mundo, construida a través de la experiencia de toda una vida, para actuar con sensatez en todo tipo de situaciones nuevas.

"El aprendizaje profundo es genial, y se puede aprender mucho de la experiencia previa, pero es imposible tener un conjunto de datos que incluya a todo el mundo", dice Zhao, y añade: "La IA actual, que en gran parte se basa en datos, tiene dificultades para entender el sentido común; esa es la clave que falta". El responsable ilustra su argumento abriendo su ordenador portátil para mostrar varias situaciones de carreteras reales en YouTube, incluyendo complejas incorporaciones de tráfico y algunos accidentes espeluznantes.

La falta de conocimiento por sentido común ciertamente ha causado algunos problemas para los sistemas de conducción autónomos. Un accidente que involucró a un Tesla que conducía en modo semiautónomo en EEUU el año pasado, por ejemplo, ocurrió porque los sensores del automóvil se confundieron temporalmente cuando un camión cruzó la carretera (véase Tesla es investigada por un accidente de coche mortal a manos de Autopilot). Un conductor humano probablemente se habría dado cuenta en seguida lo que estaba pasando.

Zhao y Debbie Yu, uno de sus cofundadores, muestran un vídeo de otro accidente que involucró a un Tesla en China, en el que el coche se empotró directamente en un camión de limpieza de calles. Zhao detalla: "El sistema está entrenado en Israel o Europa, pero allí no tienen este tipo de camión. Sólo se basa en la detección; en realidad no entiende lo que está pasando".

iSee se construye a partir de los esfuerzos por entender cómo dan sentido al mundo los seres humanos, y para diseñar máquinas que lo imiten. Zhao y otros fundadores de iSee vienen del laboratorio del profesor en el departamento de ciencias cognitivas y del cerebro en MIT Josh Tenenbaum, que ahora actúa de asesor de la empresa.

Tenenbaum se especializa en explorar cómo funciona la inteligencia humana y usar ese conocimiento para crear nuevos tipos de sistemas de inteligencia artificial. Esto incluye el trabajo sobre el sentido intuitivo de la física, del cual disponen hasta los niños pequeños, por ejemplo. La habilidad de los niños para entender cómo se comporta el mundo físico les permite predecir cómo pueden desarrollarse situaciones desconocidas. Tenenbaum explica que esta comprensión del mundo físico está íntimamente conectada con una comprensión intuitiva de la psicología y la capacidad de inferir lo que una persona trata de hacer, como alcanzar una taza, al observar sus acciones.

La capacidad de transferir el aprendizaje entre situaciones es también un sello distintivo de la inteligencia humana, e incluso los sistemas más inteligentes de aprendizaje automático son aún muy limitados en comparación. El laboratorio de Tenenbaum combina el aprendizaje automático convencional con nuevos enfoques de "programación probabilística". Esto hace posible que las máquinas aprendan a inferir cosas sobre la física del mundo, así como las intenciones de los demás, a pesar de la incertidumbre.

Invertir la ingeniería para lograr capacidades que hacen que hasta un bebé sea más listo que el sistema más inteligente de IA podría dar lugar a muchos sistemas aún más inteligentes, dice Tenenbaum. En 2015, junto con investigadores de la Universidad de Nueva York y de la Universidad Carnegie Mellon (ambas en EEUU), Tenenbaum utilizó algunas de estas ideas para desarrollar un programa informático de referencia, capaz de aprender a reconocer la escritura a mano a partir de unos pocos ejemplos (ver Nace el ordenador capaz de leer un texto escrito a mano).

Un enfoque parecido podría conseguir que un coche autónomo logre una versión rudimentaria de sentido común ante escenarios desconocidos. Tal coche debería ser capaz de determinar que un conductor que está metiendo el morro en la carretera probablemente quiera incorporarse al tráfico.

Cuando se trata de la conducción autónoma, de hecho, Tenenbaum afirma que la capacidad de inferir lo que otro conductor está tratando de lograr podría ser especialmente importante. Otro de los cofundadores de iSee, Chris Baker, desarrolló modelos computacionales de psicología humana mientras estaba en el MIT. "Modelizar al estilo de la ingeniería cómo comprenden los seres humanos a otros seres humanos, y ser capaz de aplicarlo en la conducción autónoma, realmente podría proporcionar la pieza que falta del rompecabezas", dice Tenenbaum.

Tenenbaum comenta que al principio no estaba interesado en aplicar las ideas de la psicología cognitiva a la conducción autónoma, pero los fundadores de iSee le convencieron de que tendía un impacto importante y que estaban a la altura de los desafíos de ingeniería.

El director general del Instituto Allen para Inteligencia Artificial, Oren Etzioni, afirma: "Es un enfoque muy diferente, y lo aplaudo totalmente". Su propio centro fue creado por el cofundador de Microsoft Paul Allen para explorar nuevas ideas en IA, incluyendo las inspiradas por la psicología cognitiva.

Etzioni dice que el campo de la IA necesita explorar ideas más allá del aprendizaje profundo. Cree que el principal problema para iSee será demostrar que las técnicas empleadas pueden funcionar bien en situaciones críticas. "La programación probabilística es bastante nueva, por lo que hay dudas sobre su rendimiento y robustez", señala.

Aquellos involucrados en iSee parecen estar de acuerdo. Aparte de pretender revolucionar la industria del automóvil y, quizá, de paso reformar el transporte, Tenenbaum dice que iSee tiene la oportunidad de explorar cómo funciona un nuevo enfoque de IA en una situación práctica particularmente implacable. El responsable concluye: "En cierto sentido, los automóviles de conducción autónoma van a ser los primeros robots autónomos que interactúan gente en el mundo real. El verdadero desafío es, ¿cómo puede tomarse estos modelos y hacer que funcionen con robustez?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla