.

Otros

Google explora los teléfonos ‘ojos-libres’

1

Una interfaz adaptativa con capacidad de respuesta auditiva y por vibración podría ayudarnos a acabar ignorando a las pequeñas pantallas.

  • por Kate Greene | traducido por Francisco Reyes (Opinno)
  • 02 Junio, 2009

Las pantallas de muchos teléfonos móviles pueden acabar afectando a la visión del usuario, especialmente si su atención se divide entre utilizar un teclado virtual y caminar o conducir al mismo tiempo. Afortunadamente, un grupo de ingenieros de Google están experimentando con unas interfaces para los teléfonos móviles con Android que no requieren nuestra atención visual en absoluto. Durante Google I/O, la conferencia anual para desarrolladores de la compañía que se llevó a cabo en San Francisco la semana pasada, T.V. Raman, uno de los científicos de investigación de Google, hizo una demostración de una interfaz circular y adaptativa para los teléfonos que proporciona una respuesta auditiva y táctil al usuario.

“Estamos construyendo una interfaz de usuario que va más allá de las pantallas,” afirma Raman. A menudo, las interfaces que no necesitan de nuestra atención ocular se utilizan para los usuarios ciegos. Sin embargo Raman, que es él mismo ciego, asegura que estas interfaces tienen una serie de implicaciones más amplias. “Esto no se limita a los usuarios ciegos,” afirma. “Con esto estamos tratando de hacer que estos dispositivos se puedan utilizar en aquellas circunstancias en las que no podemos dirigir la vista al aparato.”

Las interfaces ‘ojos-libres’ no son algo novedoso. De hecho Bill Buxton, investigador de Microsoft, ya exploró en 1994 la idea de crear unos menús circulares pensados para ser más fáciles de usar sin la ventaja de poder utilizar la vista para ver las opciones de un menú desplegable. Durante los últimos años, Patrick Baudish, otro investigador de Microsoft y que también es profesor en el Instituto Hasso Plattner en Alemania, ha aplicado este método a los menús de los MP3 que también proporcionan una respuesta auditiva al usuario.

Algunos teléfonos móviles proporcionan respuestas en forma de vibración, aunque normalmente este tipo de interfaces requieren mucha atención visual. Según Raman, Android podría ser una de las primeras plataformas de teléfono móvil que permitan un amplio rango de interfaces ‘ojos-libres’. La plataforma Android permite respuestas a partir de vibración y audio. Durante la conferencia, Raman y su colega Charles Chen demostraron que la alternativa ‘ojos-libres’ se puede añadir a la mayoría de las aplicaciones Android con sólo unas líneas de código.

Los investigadores mostraron su interfaz para marcar números y buscar contactos en el teléfono. Uno de los problemas de la mayoría de las interfaces gráficas, afirma Raman, es que los botones están fijos en una misma localización, lo cual no resulta cómodo si no puedes sentirlos al tacto. Para solucionar este problema, la interfaz aparece tan pronto como el dedo toca la pantalla, por lo que se centra a partir de este primer toque inicial.

Cuando se configura como teclado numérico, el primer toque se aposenta directamente sobre el número “5.” Si nos desplazamos arriba a la derecha conseguimos un “3”, y si vamos abajo la izquierda tendremos un “7.” Cada vez que el dedo pasa por encima de un número el teléfono vibra, y cuando el dedo se levanta, indicando que se ha llevado a cabo una selección, una voz computerizada repite el número en voz alta.

Para navegar a través de la libreta de contactos del teléfono, el usuario toca la pantalla para producir un set circular de ocho letras. (Para ver un video de la interfaz en acción, pulse aquí.) Si vamos arriba y a la izquierda, allí donde está localizada la “A”, se abre un nuevo menú circular con ocho letras más: “B,” “C,” “D,” y así en adelante. Con este método, afirma Raman, el usuario sólo necesita mover el dedo como máximo tres veces para acceder a cualquier letra.

Android también permite la transformación de texto en voz, lo que hace que los desarrolladores puedan crear aplicaciones para verbalizar el texto que aparece en la pantalla, aunque esto no resulta útil para que los usuario introduzcan textos.

Desde Microsoft, Baudisch afirma que sería bueno si estas interfaces lograran encontrar su lugar fuera de los laboratorios de investigación. “Es maravilloso que [los investigadores de Google] se estén dedicando a esto, y lo han implementado muy bien,” afirma. “Los menús circulares son muy buena idea, y ya va siendo hora de que alguien los use en aquellos productos donde puedan funcionar.”

Raman reconoce que aún hay que esperar antes de poder utilizar estas interfaces ‘ojos-libres’ y que hay mucho por investigar acerca de qué capacidades resultan útiles para los consumidores. Afirma que una posible forma de mejorar la interacción ‘ojos-libres’ sería mediante la predicción de las intenciones del usuario. Por ejemplo, hay usuarios que con frecuencia comprueban los horarios de llegada del autobús después del trabajo cada día. Con este dato, el teléfono podría responder a ciertos gestos, tales como el trazado de la letra “B” después de las 16:15 horas durante los días entre semana, e informar al usuario sobre la hora de llegada del bus.

Otros

  1. China prohíbe la exportación de minerales críticos y lanza un aviso a EE UU

    El país asiático está dispuesto a devolver el golpe con más fuerza e infligir perjuicios económicos a su rival

  2. La IA ahora puede crear una réplica de tu personalidad

    Una entrevista de dos horas es suficiente para captar con precisión tus valores y preferencias, según una nueva investigación de Stanford y Google DeepMind

    IA alterinativa
  3. La difícil tarea de señalar quién debe pagar por el cambio climático

    Los mayores contaminadores del mundo, en cifras.