El investigador de la conciencia más conocido del mundo asegura que algún día las máquinas podrán ser conscientes de sí mismas
Foto: Christof Koch
¿Es un gusano consciente? ¿Y una abeja? ¿Un ordenador que pueda jugar al ajedrez "siente" algo?
Para el director científico del Instituto Allen para la Ciencia del Cerebro en Seattle (EEUU), Christof Koch, la respuesta a estas preguntas puede estar en el tejido del propio universo. La conciencia, en su opinión, es una propiedad intrínseca de la materia, al igual que la masa o energía. Todo lo que se necesita para sentir es organizar la materia de la forma correcta, como ocurre en el cerebro de los mamíferos.
Koch, de 57 años, ha pasado casi un cuarto de siglo tratando de explicar por qué, por ejemplo, sentimos el calor del Sol en la cara. Pero después de escribir tres libros sobre la consciencia, Koch señala que los investigadores siguen estando muy lejos de conocer por qué ocurre, o incluso de ponerse de acuerdo sobre lo que es. Es un problema difícil (ver "El lenguaje del cerebro es una 'Torre de Babel'"). Esa es una de las razones por las que Koch dejó su puesto en el Instituto de Tecnología de California (EEUU) en 2011 para formar parte de un proyecto de 500 millones dólares lanzado por el multimillonario Paul Allen, cofundador de Microsoft.
El objetivo del Instituto Allen es construir un mapa detallado de todas las neuronas y sinapsis en el cerebro de los mamíferos. Eso proporcionaría a la neurociencia un torrente de datos similar al que se logró con el Proyecto del Genoma Humano.
Pero Koch no se rinde y sigue en búsqueda de una gran teoría que pueda explicarlo todo. De hecho, cree que la conciencia podría explicarse mediante algo conocido como "teoría de la información integrada", que afirma que la conciencia es un producto de estructuras, como el cerebro, capaz tanto de almacenar una gran cantidad de información como de tener una densidad crítica de interconexiones entre sus partes.
Para el experto, la teoría proporciona una forma de evaluar los grados de conciencia en personas con daño cerebral, en especies de todo el reino animal, e incluso, afirma, entre las máquinas. Durante la conferencia EmTech Boston (EEUU) de MIT Technology Review la semana pasada, preguntamos a Koch sobre la consciencia en los ordenadores.
Si descubrimos la base biológica de la conciencia, ¿nos deshumanizaremos de alguna manera? ¿Qué pasa si todo es sólo una ilusión?
Creo que la idea de algunas personas sobre que la conciencia es una ilusión es ridícula. Si fuera una ilusión, sería la ilusión más potente que tenemos. Es decir, ¿cuál es la deducción más famosa de la filosofía occidental? "Pienso. Luego existo". El hecho de tener una experiencia consciente es la única certeza innegable que tenemos.
Si los científicos descubren la base de la consciencia, ¿qué tipo de tecnologías podrían resultar de ello?
Podríamos elaborar una prueba para saber quién tiene consciencia y quién no. En EEUU hay un apasionado debate sobre el aborto. Me gustaría tener una forma objetiva de evaluar en qué momento un feto comienza en realidad a tener una sensación de consciencia. O si un paciente [en coma] es consciente o no. A menudo, simplemente no lo sabemos. La gente lleva haciéndose estas preguntas desde tiempos históricos, pero una vez que tengamos una teoría que sea ampliamente aceptada, podríamos obtener respuestas. Además, podría usar la teoría como guía para construir una máquina consciente.
¿Así que crees que un ordenador puede ser consciente?
Di una conferencia [la semana pasada] en el Instituto de Tecnología de Massachusetts (MIT, EEUU) sobre la Teoría de la Información Integrada, desarrollada por Giulio Tononi en la Universidad de Wisconsin (EEUU). Es una teoría que hace una predicción muy clara: afirma que la consciencia es una propiedad de aquellos sistemas complejos que posean un repertorio especial de "causa-efecto". Estos sistemas tienen una forma particular de interactuar con el mundo, tal como lo hace el cerebro, o como podría hacerlo un ordenador en principio. Si quisieras construir un ordenador que tuviera los mismos circuitos que el cerebro, ese ordenador también debería tener una conciencia asociada. Ser ese ordenador estaría asociado a un sentimiento. Sin embargo, no ocurre lo mismo con las simulaciones digitales.
Si yo construyera un modelo de software perfecto del cerebro, nunca sería consciente, ¿pero podría serlo una máquina especialmente diseñada para imitarlo?
Correcto. Esta teoría señala claramente que una simulación digital no sería consciente, algo que difiere mucho de la creencia funcionalista dominante del 99% de las personas en el MIT, o de filósofos como Daniel Dennett. Todos afirman que una vez que se simulas todos los aspectos, ya no necesitas nada más y se logra la consciencia.
Creo que la conciencia, al igual que la masa, es una propiedad fundamental del universo. Una analogía muy buena es que hoy día podemos hacer predicciones meteorológicas bastante precisas. Se puede predecir el interior de una tormenta. Pero el agua nunca llega dentro del ordenador. Puedes simular un agujero negro en un ordenador, pero no puedes doblar el espacio-tiempo. Una simulación no es lo mismo que la realidad.
Ocurre lo mismo con la consciencia. En 100 años, podríamos ser capaces de simular la consciencia en un ordenador. Pero no se lograría la experiencia. Para nada. En el interior sólo habrá oscuridad. No tendrá ningún tipo de experiencia, a pesar de que pueda tener nuestra inteligencia y nuestra capacidad de hablar.
No estoy diciendo que la consciencia sea un alma mágica. Es algo físico. La consciencia siempre sobreviniente a la física. Pero se necesita un determinado tipo de hardware para crear instancias de ella. Un ordenador hecho de transistores, que mueva cargas eléctricas dentro y fuera de una puerta, y que tenga cada puerta conectada a un pequeño número de otras puertas, es una estructura de causa-efecto muy distinta a la que tenemos en el cerebro, donde una neurona está conectada a 10.000 neuronas de entrada y se proyecta a otras 10.000 neuronas. Pero si construyes el ordenador de forma adecuada, como un ordenador neuromórfico (ver "Los chips neuromórficos tendrán una inteligencia alienígena"), podría ser consciente.
Si te metiera en una habitación con un ordenador del futuro, ¿serías capaz de determinar si es consciente?
Por fuera no podría saberlo. Tendría que ver el hardware.
¿Qué me dices del test de Turing?
El título del artículo original de Turing es "¿Pueden pensar los ordenadores?". Pero en última instancia, se trata de una prueba para determinar el funcionamiento de la inteligencia, no de la consciencia. Si tienes una conversación inteligente con alguien en otra habitación y después de media hora no sabes si es un ordenador o un humano, entonces puedes decir que tiene la inteligencia de un ser humano. Pero la prueba de Turing no me dice si la máquina experimenta algo. Le podría preguntar "¿Tienes consciencia?" y la máquina podría decir "Sí, soy plenamente consciente. ¿Y por qué dices que no lo soy? Me siento insultado". Pero en realidad no podría determinarlo. Tendría que decir: "Perdona, tengo que abrirte y entender cómo estás hecho y cómo generas en realidad estos distintos estados físicos".
¿Hay alguna pregunta con trampa que pudieras hacer, que sólo un ser consciente pudiera contestar?
Buena pregunta. Con los seres humanos tenemos pruebas prácticas para determinar la conciencia. Si tienes un accidente grave y vas a urgencias te preguntan: ¿Puedes mover los ojos? ¿Puedes mover las extremidades? ¿Puedes hablar? Si puedes hablar, ¿sabes en qué año estamos? ¿Sabes quién es el presidente?
Pero, ¿cómo sé realmente que tienes consciencia? Este es el problema del solipsismo [corriente filosófica que solo garantiza la existencia de la propia mente]. Con el análisis anterior no lo sé. Pero sé que tu cerebro es muy similar al mío. He visto el cerebro de mucha gente en escáneres, y sé que se comportan de forma similar a la mía. Así que existe una inferencia perfectamente razonable de que tú también tengas consciencia.
Pero cuanto más difieren estos sistemas de mí, más difícil es dar ese paso por inferencia. Tomemos como ejemplo una abeja. ¿Siente por ser una abeja y volar bajo el Sol y recolectar néctar? Me resulta muy difícil saber si una abeja es consciente o no. Y un ordenador es aún más radicalmente distinto. No puedo juzgarlo bajo ningún comportamiento. Tendría que ver el hardware interior.
¿Crees que alguna vez construiremos máquinas conscientes?
No estoy seguro de por qué deberíamos hacerlo. Pero tengo muy claro que construiremos máquinas inteligentes que puedan superar el test de Turing antes de que entendamos la verdadera base biológica de la inteligencia humana. Y creo que eso tiene una serie de peligros asociados que la mayoría de las personas, tan optimistas y despreocupadas como son, ignoran completamente.
¿Qué peligros?
¿Ves películas de ciencia ficción? Hablo de cuando la IA se nos escape de las manos. Piensa en el mercado financiero, en todas esas máquinas bursátiles y las caídas que pueden provocar. La gente va a abusar ciegamente de la inteligencia computacional para maximizar algún objetivo. Va a dar lugar a más y más concentración de poder entre cada vez menos personas. Es algo que ya estamos observando, y que va a conducir a un desempleo masivo. Y tal vez en 30 o 40 años creo que realmente se producirá un peligro existencial para la especie, al nivel de las armas nucleares o el impacto de un meteorito.
¿Todo esto sin que las máquinas sean conscientes? En las películas, el momento en que la IA se vuelve loca es justo cuando adquiere consciencia de sí misma.
Eso es porque la gente quiere crear historias atractivas. Si el enemigo no siente nada, entonces no es un buen oponente.