La Universidad de Oxford ha desarrollado un sistema aplicable a cualquier vehículo que aprende a medida que el conductor lo usa y se diseña a la carta en función de la utilidad que se le vaya a dar
Una spin-off de la Universidad de Oxford (Reino Unido) llamada Oxbotica ha desarrollado un nuevo sistema de software para convertir cualquier vehículo convencional en un coche autónomo.
El sistema, llamado Selenium, recopila datos de cámaras, escáneres de láser o sistemas de radar. Entonces emplea una serie de algoritmos para identificar "su" ubicación, lo que le rodea y cómo desplazarse. "Convierte cualquier vehículo en un vehículo autónomo", explica el profesor de la Universidad de Oxford y cofundador de Oxbotica, Paul Newman. Suena ambicioso, pero lo dice en serio. El equipo planea utilizar el software para controlar no sólo coches autónomos, sino robots de almacén, grúas de horquilla y vehículos autónomos de transporte público.
La mayoría de los sistemas de otros fabricantes dependen de un sistema lo suficientemente robusto para lidiar con la conducción desde que son encendidos. Autopilot de Tesla, por ejemplo, utiliza cámaras de a bordo y análisis de imágenes para controlar el vehículo en autopista. Pero su fiabilidad se ha visto cuestionada tras una serie de accidentes recientes.
Crédito: Oxbotica.
El software de Oxbotica obtiene datos gradualmente acerca de las rutas por las que se desplaza un vehículo y aprende a reaccionar al analizar cómo se comporta el conductor humano. El profesor adjunto de la Universidad de Oxford y otro de los cofundadores de Oxbotica, Ingmar Posner, detalla: "Cuando compras tu coche autónomo y sales del concesionario con él, este no sabe nada. Pero en algún momento decidirá que ya sabe dónde se encuentra, que su sistema de percepción ha sido entrenado por la conducción del conductor humano y entonces podrá ofrecerte la autonomía".
La empresa explica las dos prestaciones principales de Selenium: geolocalizar el vehículo y percibir qué pasa a su alrededor. Con esas dos fuentes de información, un planificador central puede determinar cómo debería desplazarse el coche. Tanto el sistema de localización como el de percepción dependen de sensores colocados por todo el vehículo en función del uso que se le vaya a dar. Newman sugiere que una grúa solo necesitaría cámaras de bajo coste, mientras que un coche podría incorporar todo tipo de sensores.
Selenium puede comparar las lecturas en tiempo real con lecturas anteriores almacenadas en mapas de viajes anteriores realizados bajo condiciones similares. "Si lo sacas con nieve por primera vez, se guardará las ideas sobre la nieve para la próxima", explica Newman. El sistema identifica características de imagen, como los detalles de las fachadas de los edificios o la disposición del mobiliario urbano, para localizar el vehículo dentro del contexto del mundo más amplio. Mientras tanto, datos láser pueden ser empleados gracias a su alta resolución para localizar el coche con mayor precisión, especialmente en condiciones de baja visibilidad cuando las cámaras pueden fallar.
Selenium primero debe aprender a reconocer coches y humanos mediante un conjunto de datos etiquetados. Pero con el tiempo también aprende del conductor. "Si un humano conduce y atraviesa directamente lo que el coche creía que era un humano, el software puede aprender de eso", señala Posner. El sistema emplea conocimientos previos y aprendizaje continuo para determinar, por ejemplo, sobre qué partes de una superficie podrá desplazarse de manera segura o cómo cambian las señales viales.
Crédito: Oxbotica.
El resultado es un vehículo con un profundo entendimiento de las rutas que ha de recorrer regularmente. Según Posner, eso significa que el software no solo intenta hacer un trabajo mediocre esté donde esté, pues su desempeño será excelente en las zonas que ya controle. Yo di una vuelta en un Renault Twizy modificado que había sido equipado con láseres, cámaras y un gran ordenador alimentado por Selenium. Parecía dejarse llevar por un confiado conductor humano, con unas suaves pero asertivas acciones de aceleración, frenado y dirección, aunque no existían peligros en la sencilla pista de pruebas que recorrimos.
El software de Oxbotica está programado para probarse en dos entornos del mundo real en un futuro próximo: dentro de los vehículos autónomos de transporte público del proyecto GATEway en el distrito Greenwich de Londres (Reino Unido) y en los módulos sin conductor de LUTZ Pathfinder que están siendo probados en Milton Keynes (Reino Unido). Newman explica que la empresa ya colabora con fabricantes de automóviles, aunque no pudo confirmar con cuáles ni cuándo la tecnología podría ser incorporado en los coches.
A pesar de la sombra que arrojan las recientes investigaciones del sistema autónomo de Tesla sobre las tecnologías de conducción autónoma, el sector está siguiendo adelante con su trabajo. Oxbotica no prepara sólo en el lanzamiento del software, Nissan también anunció su nuevo ayudante de conductor ProPilot la semana pasada. Los dos sistemas son muy diferentes entre sí, pero sus llegadas sugieren que la carrera por lograr la autonomía automovilística no muestra señales de ralentizarse.