
Mitigar discapacidades visuales con técnicas computacionales
«No toda la información tiene el mismo valor, y nuestros ojos no son una excepción. Podríamos decir que los ojos envían al cerebro el equivalente a millones de gigabytes por segundo de información para describir con precisión el entorno que nos rodea. El cerebro está constantemente procesando esta información visual mediante un mecanismo conocido como compresión sensorial (compressive sensing). Es similar a comprimir un archivo en nuestro ordenador: en lugar de guardar toda la información, el cerebro reduce las imágenes a una serie de características semánticas clave que le permiten reconstruir la fuente completa. No somos conscientes de este proceso precisamente porque funciona: tenemos la sensación de ver algo, cuando en realidad estamos viendo una imagen construida por nuestro cerebro, que la representa de la mejor forma posible.
A Belén Masiá le fascinan estos procesos cognitivos y ha centrado su investigación en la Universidad de Valladolid en comprender más a fondo las “reglas” que sigue el cerebro para “esbozar” la información visual. Las preguntas que se planteó fueron: “¿cómo podemos modelar este comportamiento?” y “¿cómo podemos utilizarlo en nuestro beneficio?”, por ejemplo, para detectar y tratar enfermedades que afectan a la capacidad visual de una persona. Su reto es identificar qué información retiene el cerebro y modelarla desde un punto de vista matemático, de modo que “se conserve la información semántica”.
Su trabajo está tan relacionado con la investigación médica y cognitiva como con la informática, y por eso colabora estrechamente con oftalmólogos del Hospital Universitario Miguel Servet de Zaragoza, no muy lejos de su departamento de investigación.
De hecho, las aplicaciones en el ámbito médico son numerosas. Entre otras, su investigación puede contribuir a mejorar los implantes o al desarrollo de herramientas para el diagnóstico precoz de deficiencias visuales en bebés. Los implantes de retina actuales, por ejemplo, son electrodos conectados a fotosensores que transforman la luz recibida en señales eléctricas dirigidas al cerebro. Sin embargo, realizan una “simplificación” de la información. No conocer qué información es la más relevante para el cerebro —es decir, la que se utiliza para reconstruir semánticamente una imagen completa— implica que la visión obtenida sea muy limitada, como ocurre con los implantes actuales. Los algoritmos de Masiá, en cambio, permitirán que estos dispositivos futuros puedan seleccionar la información adecuada.
La elaboración de estos algoritmos computacionales es larga y compleja: Masiá utiliza una gran base de datos de imágenes para “entrenar” los algoritmos. La siguiente fase será probar las imágenes con humanos, es decir, mostrar las imágenes procesadas por los algoritmos a un grupo de voluntarios para comprobar si son capaces de reconstruir algo lo más parecido posible a la imagen original, sin procesar. Si lo consiguen, significará que los algoritmos son capaces de reproducir el filtrado semántico que realiza el cerebro. Solo tras un extenso ajuste y validación, los algoritmos de Masiá podrán implementarse en hardware específico, ya sea en implantes o incluso en dispositivos como las últimas gafas de Google.»