
Sistema acústico para la detección de obstáculos por personas ciegas
“Hay 40 millones de personas totalmente ciegas en el mundo, y más de 120 millones con discapacidades visuales que limitan su visión. Para la mayoría de ellas, desplazarse de forma independiente por espacios exteriores, tomar el transporte público, evitar personas, escalones, coches u otros obstáculos fijos o en movimiento es un gran desafío. Una gran parte de ellas utiliza un bastón para detectar obstáculos y peligros, pero esto ofrece una capacidad muy limitada. ¿Y si un coche se dirige hacia ellas? Proporcionarles una herramienta más avanzada para facilitar sus movimientos motivó a Larisa Dunai y a sus compañeros investigadores en la Universidad de Valencia a desarrollar un sistema de Ayuda Electrónica al Desplazamiento (ETA, por sus siglas en inglés) especialmente diseñado para ellas.
En pocas palabras, el sistema consiste en un par de gafas especiales equipadas con cámaras, un ordenador llevado en una mochila y un conjunto de auriculares. El software del ordenador procesa en tiempo real las imágenes de la cámara para detectar objetos y su trayectoria con respecto al itinerario, y transforma dicha información en un “mapa acústico” que el usuario puede percibir a través de los auriculares.
Después de su licenciatura en Ingeniería Electrónica en Moldavia y un doctorado en Ciencias de la Computación en Praga, Dunai se trasladó a Valencia para su investigación posdoctoral en Diseño de Producto, donde se centró en sistemas psicoacústicos y cognitivos. Desarrollar un sistema tan complejo requirió la aplicación de un amplio espectro de habilidades, desde el procesamiento de imágenes y la identificación de objetos, hasta la determinación de la información más relevante para el usuario, y finalmente el diseño de los sonidos de “clic” utilizados para llevar dicha información directamente a los oídos del usuario. El objeto está representado por un sonido específico para cada píxel de la imagen. Con un breve entrenamiento, la forma del objeto se recrea rápida y sorprendentemente directamente en el cerebro, de forma similar al sistema de sonar de los murciélagos. Por eso Dunai confió en una colaboración a largo plazo con neurofisiólogos: “Los clics no deben sonar como ningún otro sonido en el entorno, y deben ser fácilmente distinguibles”, explica.
“La retroalimentación de los usuarios reales fue extremadamente importante para desarrollar el sistema”, recuerda, “por ejemplo, ellos nos dejaron claro que conocer la naturaleza del objeto que se acercaba no era importante.” Esto se debe a que el entorno también se percibe a través de los otros sentidos: ruidos, olores, aire, todos ellos aportan información esencial para “completar el cuadro.” Esto permitió a Dunai centrarse en los elementos clave que su sistema podía aportar: la percepción del entorno en un ángulo de 60° frente al individuo y dentro de un radio de 10 metros, donde detectar obstáculos es más crucial (por el peligro potencial), pero donde no pueden experimentarse a través de los otros sentidos.
Los primeros modelos de este sistema fueron creados dentro del Proyecto CASBliP de la Comisión Europea y presentados en 2011. Dunai está trabajando ahora en la mejora de este sistema mediante la adopción de sensores basados en CMOS, en sustitución de las imágenes de cámara, y en la reducción del tamaño y peso del sistema. Para que perder la vista no signifique quedar desconectado del mundo exterior.