Unos electrodos en el antebrazo permiten la creación de nuevas formas de interacción con los ordenadores sin tener que usar las manos.
Estamos pasando por un buen momento dentro de las comunicaciones con nuestros ordenadores. Ya no estamos limitados al ratón y al teclado—las pantallas táctiles y los controladores basados en gestos se están haciendo cada vez más populares. Una startup llamada Emotiv Systems incluso vende una gorra que lee la actividad cerebral, permitiendo a quien la lleve puesta controlar un juego de ordenador con el pensamiento.
Los investigadores de Microsoft, de la Universidad de Washington en Seattle y la Universidad de Toronto en Canadá acaban de inventar una otra forma de interacción con los ordenadores: una interfaz controlada con los músculos que permite una interacción gestual y sin el uso de las manos.
Una banda de electrodos se coloca en el antebrazo del usuario y lee la actividad cerebral de distintos músculos del brazo. Estas señales después se correlacionan con gestos de la mano específicos, tales como unir un dedo y un pulgar, o agarrar un objeto con más fuerza de lo normal. Los investigadores creen que esta tecnología se podría usar para cambiar canciones en los reproductores MP3 mientras se corre o para jugar a juegos como Guitar Hero sin utilizar el controlador de plástico habitual.
La interacción con los ordenadores basada en el uso de los músculos no es algo nuevo. De hecho, los músculos cercanos a un miembro amputado o desaparecido a menudo se utilizan para controlar las prótesis mecánicas. No obstante, y aunque los investigadores han explorado con anterioridad la interacción entre músculos y ordenadores para aplicarla a usuarios no discapacitados, el método ha resultado tener ciertas limitaciones prácticas. El método de deducción precisa de gestos a partir del movimiento muscular a menudo se ha visto restringido a la detección de un rango limitado de gestos o movimientos.
El nuevo proyecto para la detección de músculos “está pensado para consumidores en buen estado de salud que deseen unas modalidades de entrada de datos más diversas,” afirma Desney Tan, investigador de Microsoft. Como resultado, él y sus colegas tuvieron que desarrollar un sistema que fuera económico y discreto, y que detectara de forma fiable un rango de gestos.
La interfaz más reciente del grupo, presentada en la conferencia sobre Software y Tecnología en las Interfaces de Usuario a principios de este mes en Victoria, British Columbia, utiliza seis sensores de electromiografía (EMG, en inglés) y dos electrodos de tierra dispuestos en forma de anillo alrededor del antebrazo superior derecho del usuario para detectar el movimiento de los dedos, así como dos sensores en el antebrazo superior izquierdo para reconocer cuándo se cierra la mano. Aunque estos sensores están cableados y colocados de forma individual, su orientación no es exacta—es decir, no tienen como objetivo una serie de músculos específicos. Esto significa que los resultados deberían ser similares para un delgado brazalete de EMG que cualquier persona sin entrenamiento previo se pudiese colocar sin ayuda de nadie, afirma Tan. Esta investigación está llevada a cabo sobre la base de un trabajo previo en el que se utilizó un sistema de EMG más caro para detectar los gestos de los dedos cuando la mano se coloca sobre una superficie plana.
Los sensores son incapaces de interpretar de forma precisa la actividad muscular inmediatamente. Se debe entrenar al software para que asocie las señales eléctricas con los distintos gestos. Los investigadores utilizaron unos algoritmos estándar de aprendizaje para máquinas, que mejoran su precisión con el paso del tiempo (el método es similar al que utiliza Tan para sus interfaces de tipo cerebro-ordenador.)
“Hemos pasado mucho tiempo intentando averiguar cómo hacer que el usuario calibrase el dispositivo de forma apropiada,” afirma Tan. El software aprende a reconocer las señales de tipo EMG que se producen al llevar a cabo gestos de forma específica y controlada.
Los algoritmos se enfocan en tres características específicas dentro de los datos de EMG: la magnitud de la actividad muscular, la cuota de actividad muscular, los patrones de actividad de tipo onda que se dan entre varios sensores a la vez. Estas tres características, afirma Tan, proporcionan una forma bastante precisa de identificación de ciertos tipos de gestos. Después del entrenamiento, el software fue capaz de determinar con precisión muchos de los gestos de los participantes en más de un 85 por ciento de los casos, y algunos gestos superaron el 90 por ciento.
Especialmente durante las primeras fases del entrenamiento, los gestos del participante necesitan ser guiados cuidadosamente para asegurarse de que los algoritmos de aprendizaje para máquinas se entrenen de forma correcta. No obstante, Tan afirma que incluso con una pequeña cantidad de comentarios de respuesta, los sujetos del test “se adaptaron de forma bastante natural y cambiaron las posturas para lograr un rendimiento drásticamente mejorado.” Afirma que el hecho de hacer que los usuarios provocasen la respuesta adecuada por parte del sistema se convirtió en una parte importante del proceso de entrenamiento.
“La mayoría de las interfaces de ordenador actuales necesitan la atención completa del usuario,” afirma Pattie Maes, profesora de ciencias y artes mediáticas en MIT. “Necesitamos desesperadamente interfaces novedosas como la desarrollada por el equipo de Microsoft para permitir una integración más continuada de la información digital y las aplicaciones dentro de nuestras ocupadas vidas diarias.”
Tan y sus colegas están trabajando en un prototipo que utiliza una banda inalámbrica de fácil colocación en el brazo del usuario, así como en un “sistema de entrenamiento de gran velocidad.” Los investigadores también están poniendo a prueba la capacidad del sistema para funcionar cuando la gente camina o corre mientras lo lleva puesto.
Finalmente, y según Tan, el control con el cuerpo entero nos llevará hacia nuevas formas de utilizar los ordenadores. “Sabemos que tiene algo que ver con que los gestos sean móviles, siempre disponibles y naturales, aunque aún estamos tratando de averiguar cuál es el paradigma exacto,” afirma.