Los microchips que toman el cerebro como modelo podrían ser buenos para tareas que desconciertan a los ordenadores actuales tras 30 años de investigación
Imagina a una persona en una cafetería leyendo estas líneas en un portátil. La máquina, hecha de metal, plástico y silicio consume unos 50 vatios de potencia mientras traduce trozos de información, una larga ristra de 1s y 0s para transformarlos en un patrón de puntos sobre una pantalla. Mientras, dentro de la cabeza de esa persona una masa viscosa de proteínas, sal y agua, usa una fracción minúscula de esa potencia no sólo para reconocer los patrones como letras, palabras y frases, sino también para reconocer la canción que suena en la radio.
Este chip de ordenador, fabricado por IBM en 2011 tiene componentes que funcionan como 256 neuronas y 1.024 sinapsis.
Los ordenadores son increíblemente ineficientes en muchas tareas que resultan sencillas incluso a las mentes más simples, como por ejemplo reconocer imágenes y moverse por espacios desconocidos. Las máquinas que se encuentran en los laboratorios de investigación y grandes centros de datos pueden llevar a cabo este tipo de tareas, pero son inmensas y requieren muchísima energía para funcionar, además de una programación especializada. Hace poco Google copó los titulares por un software capaz de reconocer de forma fiable a gatos y caras humanas en vídeos, pero para conseguirlo fueron necesarios no menos de 16.000 potentes procesadores.
Una nueva generación de chips de ordenador que opera más como el cerebro quizá esté a punto de estrechar la distancia que existe entre la computación artificial y la natural; entre circuitos que resuelven operaciones lógicas a una velocidad de vértigo y un mecanismo afinado por la evolución para procesar y actuar partiendo de aportaciones sensoriales del mundo real. Los avances en neurociencia y tecnología de chips han hecho posible la construcción de dispositivos que, al menos a pequeña escala, procesan datos igual que el cerebro de un mamífero. Estos chips "neuromórficos" quizá sean la pieza que faltaba en muchos proyectos prometedores inacabados en el campo de la inteligencia artificial, como los coches que se conducen solos de forma fiable en cualquier circunstancia, y los teléfonos inteligentes que actúan como ayudantes competentes.
"Los ordenadores modernos derivan de las calculadoras, que sirven para resolver problemas matemáticos", explica el investigador sénior del centro de investigación de IBM en Almadén, California (EEUU), Dharmendra Modha. "Los cerebros evolucionaron en el mundo real". Modha dirige uno de los dos grupos que han construido chips de ordenador con una arquitectura básica copiada de la del cerebro de los mamíferos dentro del proyecto Synapse, financiado con 100 millones de dólares (unos 73 millones de euros) por la Agencia de Proyectos Avanzados de Defensa del Pentágono (DARPA por sus siglas en inglés).
Los prototipos ya han mostrado los primeros destellos de inteligencia, procesando imágenes con mucha eficacia y adquiriendo nuevas habilidades en formas que se parecen al aprendizaje biológico. IBM ha creado herramientas para permitir a los ingenieros de software programar estos chips inspirados en el cerebro. El otro prototipo, de los laboratorios HRL en Malibu, California (EEUU), pronto estará instalado dentro de una diminuta nave voladora robótica, desde donde aprenderá a reconocer su entorno.
La evolución de los chips inspirados en el cerebro comenzó a principio de la década de 1980, con el profesor del Instituto Tecnológico de California (Caltech, en EEUU) y uno de los padres de la computación moderna, Carver Mead. Mead se había dado a conocer ayudando a desarrollar una forma de diseñar chips de ordenador bautizada como integración a muy gran escala, o VLSI por sus siglas en inglés, que permitía a los fabricantes crear microprocesadores mucho más complejos. La VLSI disparó un crecimiento explosivo en la potencia de computación, los ordenadores iban a llegar al gran público, a estar en todas partes. Pero la industria parecía conformarse con construirlos siguiendo un único plano, creado en 1945. La arquitectura von Neumann, bautizada así en honor del matemático de origen húngaro John von Neumann, está diseñada para ejecutar secuencias lineales de instrucciones. Todos los ordenadores actuales, desde los smartphones hasta los superordenadores, sólo tienen dos componentes principales: una unidad central de procesamiento o CPU, para manipular datos, y un bloque de memoria de acceso aleatorio o RAM, para almacenar los datos y las instrucciones sobre cómo manipularlos. La CPU empieza tomando su primera instrucción de la memoria, seguida de los datos necesarios para ejecutarla; después de llevar a cabo la instrucción, el resultado se devuelve a la memoria y el ciclo se repite. Incluso los chips multinúcleo que manejan datos en paralelo se limitan a unos pocos procesos lineales simultáneos.
Este enfoque se desarrolló de forma natural a base de las matemáticas teóricas y la lógica, en las que los problemas se resuelven con cadenas de razonamiento lineales. Pero no es el más adecuado para el procesado y aprendizaje de grandes cantidades de datos, sobre todos datos sensoriales como las imágenes y el sonido. Además, conlleva ciertas limitaciones: para hacer ordenadores más potentes, la industria se propuso la tarea de construir chips cada vez más complejos, capaces de hacer operaciones secuenciales cada vez más rápido, algo que planteó a los ingenieros importantes problemas de eficiencia energética y refrigeración, por que los chips más rápidos producen más calor. Mead, que ahora tiene 79 años y es profesor emérito, ya se dio cuenta, incluso entonces, de que podía haber una forma mejor de hacerlo. "Cuanto más lo pensaba, más raro me parecía", explica, sentado en el despacho que aún tiene en Caltech. Empezó a soñar con chips capaces de procesar muchas instrucciones -puede que millones- en paralelo. Un chip de este tipo podría hacer nuevas tareas, manejando con eficiencia grandes cantidades de información desestructurada como el vídeo y el sonido. Podría ser más compacto y usar la energía de forma más eficiente, incluso aunque estuviera más especializado en tareas concretas. La demostración de que esto era posible volaba, correteaba y caminaba por todas partes. "Los únicos ejemplos que teníamos de algo masivamente paralelo eran los cerebros de los animales", afirma Mead.
Los cerebros computan en paralelo dado que las células eléctricamente activas que contienen, las neuronas, operan simultáneamente y sin descanso. Unidas en complejas redes mediante apéndices parecidos a hilos, las neuronas influyen en los pulsos eléctricos de las demás a través de conexiones llamadas sinapsis. Cuando la información fluye a través de un cerebro, procesa los datos como una descarga de picos que se extienden por sus neuronas y sinapsis. Reconoces las palabras de este párrafo, por ejemplo, gracias a un patrón concreto de actividad eléctrica en tu cerebro que se dispara por el input que reciben tus ojos. Y además hay otra clave, el hardware neuronal es flexible: un nuevo input puede hacer que las sinapsis se adapten, dando a unas neuronas más o menos influencia sobre las otras, un proceso que es la base del aprendizaje. En términos de computación es un sistema masivamente paralelo capaz de reprogramarse.
Resulta irónico que, a pesar de que inspiró los diseños convencionales que siguen vigentes, Von Neumann también intuyera el potencial de la computación inspirada en el cerebro. En su libro inacabado The Computer and the Brain (El ordenador y el cerebro), publicado un año después de su muerte en 1957, se maravillaba ante el tamaño, la eficiencia y la potencia del cerebro si se comparaba con los ordenadores. "Un estudio matemático más profundo del sistema nervioso... podría alterar nuestra comprensión de la matemática y la lógica", sostenía. Cuando Mead llegó a la misma conclusión más de dos décadas después, se dio cuenta de que nadie había intentado crear un ordenador inspirado en el cerebro. "En aquel momento no había nadie pensando: ¿Cómo construyo uno?", explica Mead. "No teníamos ni idea de cómo funcionaba".
Finalmente Mead construyó sus primeros chips neuromórficos, que es el nombre que el usó para bautizar sus dispositivos inspirados en el cerebro, a mediados de la década de 1980, después de colaborar con neurocientíficos para estudiar cómo procesan los datos las neuronas. Al operar transistores normales a una potencia inusualmente baja, podía crear redes de feedback que tienen un aspecto muy distinto a las colecciones de neuronas pero funcionaban de forma parecida. Usó ese truco para emular los circuitos que procesan los datos de la retina y la cóclea, construyendo chips capaces de hacer cosas como detectar los bordes de los objetos, y las características de una señal de audio. Pero trabajar con estos chips resultaba difícil, y sus esfuerzos se vieron limitados por la tecnología existente para su fabricación. Cuando la computación neuromórfica no era más que una curiosidad, Mead pasó a trabajar en otros proyectos. "Era más difícil de lo que imaginaba cuando empecé", reflexiona. "El cerebro de una mosca no parece tan complejo, pero hace cosas que aún hoy no somos capaces de hacer. Eso debería ser una indicación".
Neuronas dentro
El laboratorio de IBM en Almadén, cerca de San José, está cerca pero separado de Silicon Valley, quizá la situación ideal desde la que repensar las bases de la industria de la computación. Para llegar hasta allí hay que conducir hasta una calle bordeada de magnolios en las afueras de la ciudad y subir por tres kilómetros de curvas. El laboratorio se asienta en medio de nueve kilómetros cuadrados de colinas protegidas. Dentro, los investigadores se pasean por largos, anchos y tranquilos pasillos cavilando sobre distintos problemas. Aquí, Modha dirige el mayor de los dos equipos reclutados por DARPA para acabar con la dependencia de la industria de la computación del modelo Von Neumann. El enfoque básico es parecido al de Mead: construir chips de silicio con elementos que operan como neuronas. Pero Modha puede aprovechar los avances que ha habido en neurociencia y en la fabricación de chips. "El momento adecuado lo es todo; para Carver no era el momento", afirma Modha, que tiene la costumbre de cerrar los ojos para pensar, respirar y reflexionar antes de hablar.
IBM fabrica chips neuromórficos basados en colecciones de 6.000 transistores que emulan el comportamiento de picos eléctricos de una neurona, y después cablean esas neuronas de silicio para conectarlas. La estrategia de Modha para combinarlos en un sistema parecido a un cerebro se inspira en estudios del córtex cerebral, la capa externa rugosa. Aunque distintas partes del córtex tienen distintas funciones, como controlar el lenguaje o el movimiento, está toda formada por microcolumnas, agrupamientos de 100 a 250 neuronas que se repiten. Modha presentó su versión de una microcolumna en 2011. Una mota de silicio un poco mayor que la cabeza de un alfiler que contenía 256 neuronas de silicio y un bloque de memoria que define las propiedades de hasta 262.000 conexiones sinápticas entre ellas. Programar esas sinapsis de forma correcta sirve para crear una red que procesa y reacciona a la información de forma muy parecida a cómo lo hacen las neuronas en un cerebro de verdad.
Poner ese chip a trabajar en un problema implica programar una simulación del chip en un ordenador convencional y después trasferir la configuración al chip real. En un experimento, el chip fue capaz de reconocer dígitos escritos a mano del 0 al 9, prediciendo incluso qué número estaba empezando a dibujar una persona con un lápiz digital. En otro, la red del chip se programaba para jugar a una versión del videojuego Pong. En un tercer experimento, dirigía a un pequeño vehículo aéreo sin piloto para que siguiera la doble línea amarilla en la carretera que conduce al laboratorio de IBM. Ninguno de estos logros son imposibles para el software convencional, pero en este caso se consiguieron usando una mínima parte del código, la potencia y el hardware que serían necesarios habitualmente.
Modha está probando las primeras versiones de un chip más complejo formado por una parrilla de núcleos neurosinápticos que componen un córtex rudimentario, más de un millón de neuronas en total. El verano pasado, IBM anunció una arquitectura de programación neuromórfica basada en bloques modulares de código llamados corelets. La intención es que los programadores combinen y cambien ligeramente los corelets de un menú preexistente, para que no tengan que pelearse con las sinapsis y neuronas de silicio. Ya se han diseñado más de 150 corelets, para tareas que van desde el reconocimiento de personas en vídeo hasta distinguir entre la música de Beethoven y la de Bach.
Máquinas de aprendizaje
En otra colina californiana unos 500 kilómetros más al sur, la otra parte del proyecto de DARPA tiene el objetivo de fabricar chips que imiten los cerebros con una precisión aún mayor. HRL, que mira a Malibú desde los pies de los Montes de Santa Mónica (EEUU), fue fundada por Hughes Aircraft y ahora opera como una asociación de General Motors y Boeing. Con un estanque de carpas japonesas, palmeras y plataneras, la entrada parece un hotel de la época dorada de Hollywood. También cuenta con una placa que conmemora la creación del primer láser, construido en 1960 en lo que entonces eran los laboratorios de investigación Hughes.
Un microchip desarrollado en HRL aprende como un cerebro biológico, fortaleciendo o debilitando conexiones parecidas a las sinapsis.
En un banco en un laboratorio sin ventanas, el chip de Narayan Srinivasa está en medio de un follón de cables. La actividad de sus 576 neuronas artificiales aparece en una pantalla de ordenador como una procesión de picos, el electroencefalograma de un cerebro de silicio. El chip de HRL tiene neuronas y sinapsis, parecido al de IBM. Pero como las neuronas de tu propio cerebro, las del chip de HRL adaptan sus conexiones sinápticas cuando se ven expuestas a nuevos datos. En otras palabras, el chip aprende de la experiencia.
El chip HRL imita dos fenómenos de aprendizaje del cerebro. Uno es que las neuronas son más o menos sensibles a señales de otra neurona en función de la frecuencia con que lleguen esas señales. El otro es más complejo: un proceso que se cree que está en las base de la memoria y el aprendizaje, conocido como plasticidad dependiente del tiempo de disparo (STDP por sus siglas en inglés). Esto hace que las neuronas sean más sensibles a otras neuronas que han tendido a imitar su propia actividad de señales en el pasado. Si los grupos de neuronas trabajan juntos de manera constructiva, las conexiones entre ellas se fortalecen mientras que las conexiones menos útiles se adormecen.
Los resultados de experimentos con versiones simuladas del chip son impresionantes. Jugó una partida virtual de Pong, igual que el de IBM. Pero al contrario que el chip de IBM, el de HRL no estaba programado para jugar, sólo para mover la pala, notar la pelota y recibir feedback que o recompensaba un buen golpe, o castigaba un fallo. Un sistema de 120 neuronas empezó con un montón de fallos pero en unas cinco rondas se había convertido en un habilidoso jugador. "No se programa", explica Srinivasa. "Te limitas a decir: 'bien hecho', 'mal hecho', y él averigua solo lo que debería hacer". Si se añaden bolas extra, raquetas extra o contrincantes, la red se adapta rápidamente a los cambios.
Este método podría acabar por permitir que los ingenieros creasen un robot que transite por una especie de "infancia", aprendiendo a moverse y navegar. "No se puede capturar la riqueza de todas las cosas que ocurren en un entorno real, así que deberías hacer que el sistema se enfrente a ellas directamente", sostiene Srinivasa. Máquinas idénticas podrían incorporar después lo que hubiera aprendido la original. Pero dejar a los robots alguna capacidad de aprendizaje después de ese punto también podría resultar útil. Así se podrían adaptar si se rompieran, o adaptar su forma de caminar a distintos tipos de terreno.
La primera prueba real de esta visión de la computación neuromórfica llegará el verano que viene, cuando el chip de HRL salga de su entorno de laboratorio y despegue dentro de una nave del tamaño de la palma de una mano que cuenta con alas que aletean y se llama Snipe. Mientras un humano pilota la nave a distancia a través de una serie de cuartos, el chip tomará datos de la cámara de la nave y otros sensores. En algún momento el chip recibirá una señal que significa "presta atención aquí". La siguiente vez que el Snipe visite esa sala, el chip debería encender una luz para indicar que se acuerda. Normalmente, este tipo de reconocimiento exigiría demasiada potencia eléctrica y de computación para una nave tan pequeña.
Inteligencia alienígena
A pesar del éxito modesto, pero significativo, de los chips del proyecto Synapse, aún no está claro que escalándolos se consigan máquinas con características más sofisticadas parecidas a las de un cerebro. Algunos críticos dudan de que los ingenieros copien algún día la biología lo suficientemente bien como para capturar estas habilidades.
IBM usó esta simulación de caminos neuronales de largo alcance en un macaco para dirigir el diseño de los chips neuromórficos.
El neurocientífico Henry Markram, descubridor de la plasticidad dependiente del tiempo de disparo, ha atacado el trabajo de Modha en redes de neuronas simuladas y afirma que su comportamiento es demasiado simplista. Cree que para imitar las capacidades del cerebro con éxito hay que copiar las sinapsis hasta la escala molecular; señala que el comportamiento de las neuronas se ve influido por las interacciones de decenas de canales de iones y miles de proteínas, y hay numerosos tipos de sinapsis, y todas ellas se comportan de formas no lineales o caóticas. Desde el punto de vista de Markram, para capturar las capacidades de un cerebro real los científicos tendrían que incorporar todas esas características.
Los equipos de DARPA se defienden afirmando que no tienen por qué capturar toda la complejidad del cerebro para lograr cosas útiles, y esperan que generaciones sucesivas de sus chips se acerquen cada vez más a representar la biología. HRL espera mejorar sus chips permitiendo a las neuronas de silicio regular su propia tasa de disparo, igual que los cerebros, e IBM está cableando las conexiones entre núcleos en su último chip neuromórfico de una nueva forma, usando lo aprendido en simulaciones de las conexiones entre las distintas regiones del córtex de un macaco.
Modha cree que estas conexiones podrían ser importantes para el funcionamiento a alto nivel del cerebro. Pero, incluso después de estas mejoras, estos chips aún estarán muy lejos de la intricada y compleja realidad de los cerebros. Parece poco probable que los microchips lleguen a equipararse jamás a los cerebros a la hora de contar con 10.000 millones de conexiones sinápticas en un centímetro cuadrado, aunque HRL experimente con una forma más densa de memoria basada en dispositivos exóticos conocidos como memristors.
Además, los diseños neuromórficos aún están muy lejos de incorporarse a la mayoría de los ordenadores con los que contamos en la actualidad. Quizá sea mejor reconocer a estos chips como algo completamente distinto, una forma nueva, alienígena, de inteligencia.
El enfoque tradicional es añadir mayor capacidad computacional y algoritmos más fuertes, algo que ya no se puede escalar.
Quizá sean alienígenas, pero el director de investigación de IBM, Zachary Lemnios predice que pronto querremos conocerlos. Muchos grandes negocios ya sienten la necesidad de una nueva inteligencia computacional, explica. "El enfoque tradicional es añadir más capacidad de computación y algoritmos más fuertes, pero eso ya no se puede escalar, es algo que ya estamos viendo". Como ejemplos cita a Siri, la ayudante personal de Apple, y los coches autónomos de Google. Estas tecnologías no son muy sofisticadas a la hora de comprender el mundo que las rodea, afirma Lemnios. Los coches de Google tienen una gran dependencia de datos de mapas precargados para navegar, mientras que Siri tiene que acceder a servidores en nube distantes para el reconocimiento de la voz y el procesado del lenguaje, lo que produce retrasos significativos.
En la actualidad, la vanguardia del software de inteligencia artificial es una disciplina que se conoce como "aprendizaje profundo", adoptada por Google y Facebook entre otros. Implica usar software para simular las redes de neuronas muy básicas en una arquitectura normal de ordenadores. Pero ese enfoque, que produjo el software reconocedor de gatos de Google, depende de grande grupos de ordenadores para ejecutar las redes neuronales simuladas y proporcionarles datos. Las máquinas neuromórficas deberían permitir que estas capacidades se empaquetaran en dispositivos eficientes y compactos para situaciones en las que resulte poco práctico conectarse con un centro de datos lejano. IBM ya está en conversaciones con clientes interesados en usar sistemas neuromórficos. El procesado de vídeos de seguridad y la predicción de fraudes financieros están los primeros en la lista, dado que ambos necesitan de un aprendizaje complejo, así como reconocimiento de patrones en tiempo real.
Cuando sea y comoquiera que sea que finalmente se usen los chips neuromórficos, lo más probable es que sea en colaboración con máquinas con arquitectura Von Neumann. Aún hará falta procesar cifras e incluso para los sistemas que se enfrentan a problemas como analizar imágenes, será más fácil y eficiente tener un ordenador convencional al mando. Los chips neuromórficos podrían usarse para tareas concretas, igual que un cerebro depende de diferentes regiones especializadas en distintas labores.
Como ha sido habitual a lo largo de toda la historia de la computación, los primeros sistemas de este tipo probablemente se pongan en marcha al servicio del ejército de Estados Unidos. "No es algo ni místico ni mágico", explica de la computación neuromórfica el director del proyecto Synapse en DARPA, Gill Pratt. "Es una diferencia arquitectónica que da lugar a un intercambio distinto entre energía y rendimiento". Pratt afirma que especialmente los vehículos aéreos no tripulados podrían aprovechar el método. Los chips neuromórficos podrían reconocer hitos en el terreno u objetivos sin recurrir a las grandes trasferencias de datos y potentes computadoras convencionales que son necesarias en la actualidad para procesar imágenes. "En vez de enviar un vídeo con un montón de tíos, diría: Hay una persona en cada uno de estos lugares, parece que están corriendo", explica.
Esta idea de un nuevo tipo de chip informático es una que tanto Mead como Von Neumann reconocerían.