El software identifica conferenciantes y emociones con la misma precisión que otros métodos que requieren potentes ordenadores
Un software que imita de forma aproximada el funcionamiento del cerebro podría hacer que los teléfonos inteligentes lo sean un poco más, creando aplicaciones más precisas y sofisticadas para hacer un seguimiento de todo, desde entrenamientos en el gimnasio a emociones.
El software aprovecha una técnica de inteligencia artificial conocida como aprendizaje profundo, que utiliza neuronas y sinapsis simuladas para procesar datos. Los estímulos visuales hacen que el programa refuerce las conexiones entre ciertas neuronas virtuales, permitiéndole reconocer caras u otras características en imágenes que no ha visto antes.
El aprendizaje profundo ha producido avances espectaculares en el procesamiento de imágenes y audio (ver Aprendizaje profundo). El año pasado, por ejemplo, los investigadores de Facebook lo usaron para construir un sistema capaz de determinar casi tan bien como un ser humano si dos fotos distintas muestran a la misma persona, y Google utilizó el método para crear un software que describe imágenes complicadas con frases cortas (ver El software de Google dice que en esa foto sale 'un grupo de jóvenes jugando al frisbee'). Sin embargo, hasta ahora la mayoría de estas iniciativas han necesitado ordenadores de enorme potencia.
Los smartphones ya usan el aprendizaje profundo a través de servidores remotos que ejecutan el software. Pero esto puede ser lento, y sólo funciona si el dispositivo tiene una buena conexión a internet. El científico principal de los Laboratorios Bell, Nic Lane, afirma que algunos teléfonos inteligentes son lo suficientemente potentes como para ejecutar ellos mismos ciertos métodos de aprendizaje profundo. Además, Lane cree que el aprendizaje profundo puede mejorar el rendimiento de las aplicaciones de detección móviles. Por ejemplo, podría filtrar sonidos no deseados de un micrófono o eliminar señales no deseadas en los datos recogidos por un acelerómetro.
Mientras Lane trabajaba como investigador líder en Microsoft Research Asia el año pasado, se unió al estudiante graduado de la Universidad de Cambridge del Reino Unido, Petko Georgiev, para construiR un prototipo de un programa de aprendizaje profundo relativamente sencillo que se ejecuta en un teléfono inteligente Android modificado.
Los investigadores estaban intentando ver si su prototipo podía mejorar la capacidad de un smartphone para detectar, a partir de los datos recogidos por un acelerómetro en la muñeca, si alguien estaba realizando ciertas actividades, como comer sopa o cepillarse los dientes. También probaron si podían conseguir que el teléfono determinara las emociones o identidades de las personas a partir de grabaciones de su voz.
Lane y Georgiev detallan sus conclusiones en un documento que se presenta este mes en la conferencia HotMobile de Santa Fe, Nuevo México (EEUU). Informan que el software que crearon fue un 10% más preciso que otros métodos a la hora de reconocer actividades. Los investigadores también señalan que su red neuronal fue capaz de identificar conferenciantes y emociones con tanta precisión como otros métodos.
La red prototipo que Lane y Georgiev construyeron tenía sólo una pequeña cantidad de conexiones entre sus neuronas artificiales en comparación con el prototipo de Facebook. Pero podía ser más rápida y más fiable para algunas tareas.
"Creo que todo es cuestión de incorporar la inteligencia en los dispositivos para que sean capaces de comprender y reaccionar ante el mundo por sí mismos", concluye Lane.