Los dispositivos podrían añadir el control por gestos, la capacidad de reconocer a personas distintas y trucos para sentir que la pantalla tiene botones físicos.
En unos pocos años, las tecnologías de los dispositivos móviles actuales (pantallas táctiles, giroscopios y el software de control por voz, entre otras), habrán transformado radicalmente la manera en que accedemos a los ordenadores. Para vislumbrar qué nuevas ideas podrían tener un impacto similar en los próximos años, solo había que entrar en el Hotel Marriott de Cambridge, Massachusetts (EE.UU.), esta semana. Investigadores de todo el mundo se han reunido allí para hacer demostraciones sobre nuevas ideas de interacción persona-ordenador en el Simposio ACM sobre Software y Tecnología de Interfaz de Usuario. Una gran cantidad de ellos se ha centrado en llevar los dispositivos móviles en direcciones que actualmente se sienten como extrañas y nuevas, pero que podrían llegar a ser tan normales como deslizar el dedo por la pantalla de un iPhone o un dispositivo Android.
"Estamos viendo un nuevo tipo de hardware, como por ejemplo dispositivos activados por el movimiento de la lengua o la flexión de músculos, o prototipos basados en una tecnología que ya tenemos en nuestras manos, como la Kinect, la Wii, o los sensores incorporados en los teléfonos existentes", señaló Rob Miller, profesor en el Laboratorio de Ciencias Informáticas e Inteligencia Artificial (CSAIL, por sus siglas en inglés) del MIT (Instituto de Tecnología de Massachusetts, EE.UU.) y presidente de la conferencia.
Una de las ideas más llamativas y potencialmente prometedora incluida en el programa permite realizar tareas complejas con un movimiento de muñeca o un chasquido de los dedos.
La interfaz, llamada Digits, creada por David Kim, un investigador del Reino Unido que trabaja tanto en Microsoft Research como en la Universidad de Newcastle, se coloca en la muñeca y lleva un sensor de movimiento, una fuente de luz infrarroja y una cámara. Como si se tratara de una versión portátil del dispositivo de detección de movimiento Xbox Kinect de Microsoft, Digits puede seguir los movimientos del brazo y el dedo con una precisión suficiente para reproducirlos en pantalla o permitir el control de un complejo juego de ordenador. "Tenemos en mente un dispositivo más pequeño que podría ser usado como un reloj y permitir a los usuarios comunicarse con su entorno y los dispositivos de computación personal con gestos simples de la mano", señaló Kim (ver un video de Digits en acción).
Proyectos como el de Kim podrían ofrecer una mirada hacia el futuro de la computación móvil. Después de todo, antes del lanzamiento del iPhone, las interfaces multi-touch solo se encontraban en este tipo de eventos. Los investigadores creen que las computadoras móviles están siendo frenadas por las limitaciones de los métodos de control existentes, sin los cuales podrían llegar a ser aún más potentes.
"Tenemos un deseo y una necesidad cada vez mayor de acceder y trabajar con nuestros dispositivos de computación en cualquier lugar", aseguró Kim. "Sin embargo, conseguir un nivel productivo de entrada de datos e interacción en dispositivos móviles sigue siendo un reto debido a las concesiones que tenemos que hacer en cuanto al factor de forma del dispositivo y la capacidad de entrada".
El avance de la tecnología móvil también ha proporcionado a los investigadores formas fáciles de experimentar. Varios grupos en la conferencia mostraron modificaciones de las actuales interfaces móviles diseñadas para darles nuevas capacidades.
Hong Tan, profesor de la Universidad de Purdue, y que actualmente trabaja en Microsoft Research Asia, ha demostrado una forma de agregar el tacto de los botones y otros controles físicos a una pantalla táctil: unos actuadores piezoeléctricos con capacidad de vibración, instalados en el lateral de una pantalla normal, generan fricción en el punto de contacto con el dedo. El diseño, denominado SlickFeel, puede hacer que una hoja de vidrio ordinaria dé la sensación de tener botones físicos o incluso un control deslizante también físico con diferentes niveles de resistencia. Este tipo de respuesta táctil podría ayudar a los usuarios a encontrar el control correcto en dispositivos compactos como los teléfonos inteligentes, o permitir el uso de una pantalla táctil sin mirarla, por ejemplo durante la conducción.
¿Quién es? Una pantalla táctil que reconoce los dedos de personas distintas, desarrollada por Chris Harrison y sus colegas de la Universidad Carnegie Mellon (EE.UU.).
Crédito: Chris Harrison
En un intento por sacar más partido a las pantallas táctiles, Chris Harrison, de la Universidad Carnegie Mellon, ha presentado una forma de que los dispositivos reconozcan los toques y deslizamientos de personas particulares. Su interfaz, una pantalla táctil capacitiva con un sensor de resistencia conectado, identifica el 'perfil de impedancia' único del cuerpo de una persona a través de sus dedos. Los usuarios tienen que mantener el dedo en el dispositivo durante unos segundos la primera vez que lo usan, y los toques posteriores se atribuyen a dichos usuarios. Esto podría permitir que las aplicaciones hicieran cosas tales como el seguimiento de los cambios en un documento elaborado por diferentes personas reunidas utilizando una misma tableta (ver un video de la pantalla). "Es similar a la tecnología que ya se encuentra en los teléfonos inteligentes", indicó Harrison. "Esto tiene muchas implicaciones para los juegos (se acabaron las pantallas divididas) y para las aplicaciones de colaboración".
Los sensores de movimiento y tacto en los teléfonos actuales son otro blanco para la experimentación. Mayank Goel, estudiante de doctorado de la Universidad de Washington (EE.UU.), y junto a sus colegas, ha modificado el software de un teléfono Android para determinar de forma automática en qué mano lo está sosteniendo la persona. El software lo averigua mediante la supervisión del ángulo en el que se inclina el dispositivo, tal como revela su sensor de movimiento, y la forma precisa de presión en su pantalla táctil. Goel señala que esto puede permitir crear teclados que se ajusten automáticamente si una persona está usando la mano izquierda o la derecha. Dicho ajuste redujo en un 30 por ciento los errores ortográficos durante sus experimentos.
Tacto elevado a la máxima expresión: Una interfaz maleable creada por Sean Follmer y sus colegas en el Media Lab del MIT.
Crédito: Sean Follmer
Otros prototipos en la exhibición tenían una conexión menos obvia con los aparatos de bolsillo actuales. Uno de ellos era una interfaz maleable a la que se le puede dar forma como si fuera arcilla, desarrollada por un equipo del Media Lab del MIT. Sean Follmer, un estudiante de doctorado en el laboratorio del profesor Hiroshi Ishii, demostró varias versiones, entre ellas una pantalla táctil transparente y flexible colocada plana sobre una mesa. Está hecha de un material plástico que contiene perlas de vidrio y aceite, con un proyector y un sensor 3D situados por debajo. Los pellizcos y giros realizados en la pantalla flexible cambiaban los colores que aparecían en ella, lo que también se mostraba en un modelo en 3D del material en una pantalla de ordenador cercana.
Es difícil imaginar una interfaz de bolsillo. Sin embargo, Desney Tan, que dirige el grupo de Experiencias de Usuario Computacionales de Microsoft en Redmond, Washington (EE.UU.), y el grupo de Interacción Hombre-Ordenador de la compañía en Beijing, China, considera que la posibilidad de elegir entre múltiples modos de interacción será una parte importante del futuro de la informática. "Vamos a dejar de pensar en 'dispositivos' móviles, para centrarnos en 'computación' móvil", señaló Tan, quien además ganó el Premio 35 Innovadores Menores de 35 de Technology Review en 2011. "Tal y como yo lo veo, ninguna modalidad de entrada o salida dominará el entorno de la misma manera en que la pantalla visual, el ratón y el teclado lo han hecho hasta ahora".