Un estudio presenta la primera demostración de que las interfaces cerebro-máquina pueden incluir feedback táctil.
Las interfaces cerebro-máquina han hecho posible que monos y algunos humanos controlen extremidades robóticas usando solo la mente. Pero en un mundo ideal, alguien que usara una extremidad artificial u otro aparato no solo sería capaz de controlarlo, sino también de sentir lo que está tocando.
Un nuevo estudio del laboratorio de Miguel Nicolelis en el Centro Médico de la Universidad de Duke (Estados Unidos) ha dado un primer paso hacia esa interfaz. En un artículo publicado el jueves pasado en Nature, su equipo informa de que los monos pueden aprender a manejar una mano virtual que incorpora realimentación táctil.
Nicolelis afirma que las interfaces cerebro-máquina solo serán útiles en la práctica clínica si hacen uso de señales bidireccionales, tanto con feedback sensorial del aparato como con los comandos motores del usuario. “No basta con tener movimiento, tienes que notar lo que tocas”.
Como primer experimento, los monos usaron un joystick para controlar un “avatar” virtual (un brazo y una mano de mono) en una pantalla de ordenador y se les animó a que usaran el avatar para coger objetos de la pantalla. Los objetos virtuales tenían texturas y esto se transmitía mediante la estimulación a través de series de estímulos con microondas implantados en una parte del córtex responsable del tacto. Los monos aprendieron a sujetar la mano del avatar sobre objetos con una textura concreta -transmitida por la frecuencia de la estimulación- para recibir comida como recompensa.
En otro experimento los monos recibieron el mismo feedback táctil pero controlaban la mano virtual con la mente vía una serie de micro cables implantados en el córtex motor. Aunque el desarrollo de esta tarea era menos preciso, los monos consiguieron mejorar con el tiempo.
Nicolelis comenta que el uso con éxito de una “interfaz cerebro-máquina-cerebro” demuestra que el proceso de sentir y responder a sensaciones táctiles se puede combinar. “Estamos descodificando las intenciones motoras y los mensajes táctiles simultáneamente”, explica. “Es algo que nunca se había hecho”. Nicolelis explica que aunque el estímulo que reciben los monos es artificial, parecen aprender a asociarlo con información táctil.
El siguiente paso es incorporar el sentido del tacto a las prótesis reales, usando sensores de presión que generarán un feedback táctil parecido respecto a objetos reales. Nicolelis afirma que su equipo espera construir un simulador que pruebe este método en humanos, y luego incorporar la sensación del tacto en prótesis que están creando para gente con movilidad reducida.
Nitish Thakor, ingeniero biomédico de la Universidad John Hopkins (EE.UU.) sostiene que añadir información sensorial “es el siguiente paso lógico” en el diseño de interfaces cerebro-máquina. Thakor afirma que el experimento no solo demuestra la viabilidad de añadir el tacto, sino que demuestra que los monos son capaces de aprender una tarea usando estas señales emparejadas. El único pero, añade, es que las texturas y los movimientos corporales en el mundo real son mucho más complejos y “queda por ver si esto se puede hacer a esa escala o no”.