Una nueva aplicación superpone imágenes por encima de lo que vemos con nuestro 'smartphone' y nos permite interactuar con ellas a través de gestos con las manos.
Para hacer que su software de negocios fuera más eficaz, HP pagó recientemente 10 mil millones de dólares (7.220 millones de euros) por Autonomy, una compañía de software del Reino Unido especializada en el aprendizaje de máquinas. Sin embargo, resulta que Autonomy ha desarrollado técnicas de procesamiento de imágenes para el reconocimiento de gestos dentro de la realidad aumentada: un tipo de tecnología que podría ser más atractiva para los consumidores que para los administradores de TI (Tecnología de la Información).
La realidad aumentada consiste en capas de imágenes generadas por ordenador colocadas sobre una visión del mundo real, tal como la que podemos ver a través de la cámara de un teléfono inteligente o tableta. Por tanto, alguien que viese una imagen de su ciudad a través de un dispositivo sería capaz de ver información turística superpuesta en la imagen.
La nueva tecnología de realidad aumentada de Autonomy, llamada Aurasma, da un paso más: reconoce los gestos de la mano del usuario. Esto significa que una persona que use la aplicación puede interactuar con el contenido virtual mostrado en el dispositivo. Anteriormente, la interacción con el contenido de realidad aumentada se hacía tocando la pantalla. Una demostración publicada por Autonomy crea un juego de hockey de aire virtual en la parte superior de una mesa vacía -los usuarios juegan moviendo las manos.
El núcleo de la tecnología de Autonomy permite a las empresas indexar y buscar datos con los que los motores de búsqueda convencionales tendrían dificultades. Ejemplos de ello son grabaciones de audio de llamadas de ventas, o vídeo de cámaras de vigilancia. "Hemos utilizado esta misma tecnología central en Aurasma para identificar imágenes o escenas y extraer el contenido relevante que hay que superponer", afirma el director de Aurasma Matt Mills, que presentó la aplicación durante la conferencia de tecnología DEMO en Santa Clara, California, esta semana.
Autonomy lanzó Aurasma en mayo, sin hacer publicidad, y la revista GQ ya ha utilizado el sistema para hacer que algunas de sus páginas sean interactivas. Sin embargo, la compañía anunció recientemente que Aurasma es capaz de seguir y responder ante gestos para hacer que los objetos virtuales sean interactivos. "Hemos añadido el reconocimiento del dedo", afirma Mills, "para poder obtener una experiencia un poco más parecida al Kinect. Al extender al mano, el contenido responde".
La aplicación Aurasma, disponible para el iPhone, el iPad y los teléfonos inteligentes Android, crea constantemente una "huella digital" visual de lo tiene frente a ella y lo compara con un conjunto de huellas digitales relacionadas con el área donde se utiliza la aplicación. Cuando identifica una escena, tal vez una foto en una valla publicitaria, la Estatua de la Libertad, o una casa en nuestra calle, superpone un vídeo interactivo o imágenes sobre lo que se ve en la pantalla. Los usuarios también pueden crear sus propios contenidos mediante la asignación de una foto o un vídeo a un determinado lugar en el mundo real. El contenido virtual es cuidadosamente alineado con las características visuales para las que ha sido programado. Esto permite que un enorme dinosaurio pueda levantar la cabeza detrás del puente Golden Gate, como se ve en este vídeo.
El competidor más cercano de Aurasma es Layar, una compañía holandesa que ofrece una plataforma de realidad aumentada a la que terceros pueden agregar contenido. Sin embargo, hasta ahora Layar ha dependido en gran medida de la localización por GPS para posicionar el contenido, y solo recientemente ha posibilitado la posición de objetos virtuales con mayor precisión mediante el reconocimiento de imagen. Además, Layar no reconoce los gestos de los usuarios.
Mills indica que la capacidad de Aurasma para hacer un seguimiento de los objetos con precisión significa que se podría utilizar para algo más que publicidad. En otra demostración, un teléfono inteligente con la aplicación, al dirigirse a la parte posterior de un router de banda ancha, reveló gráficos y texto explicando para qué era cada puerto.
Aunque los teléfonos móviles y las tabletas son las mejores interfaces de realidad aumentada hoy día, la experiencia es aún un poco torpe, ya que el usuario debe sostener el dispositivo con una mano en todo momento. Los escritores de ciencia ficción y tecnólogos llevan desde hace tiempo pronosticando que la tecnología finalmente se experimentará a través de gafas. El reconocimiento de los movimientos de las manos sería útil para este tipo de diseño, puesto que no se tendría la opción de usar una pantalla táctil o botones físicos.