La importancia de incluir la motivación dentro del desarrollo de la inteligencia.
Algunos futuristas como Ray Kurzweil han jugado con la hipótesis de que algún día en el futuro próximo pasaremos por una singularidad—es decir, un periodo de tiempo con rápidos cambios tecnológicos más allá del cual no seremos capaces de tener una visión de la sociedad del futuro. La mayor parte de las opiniones sobre esta singularidad se enfocan en la creación de máquinas lo suficientemente inteligentes como para crear máquinas incluso más inteligentes que ellas mismas, y así de forma recurrente, con lo que se iniciaría un ciclo de respuesta positiva en cuanto a la amplificación de la inteligencia. Esto es algo que resulta intrigante. (Una de las primeras cosas que quería hacer cuando llegué a MIT como estudiante de postgrado era construir un robot científico que pudiera llevar a cabo descubrimientos más rápidamente y mejor que nadie.) Incluso el director tecnológico de Intel, Justin Rattner, recientemente ha especulado públicamente que vamos por buen camino hacia esta singularidad, y conferencias como la Singularity Summit (en la que participaré como conferenciante en octubre) están explorando la forma en que puede que tenga lugar una transformación de este tipo.
Como ingeniero cerebral, no obstante, creo que enfocarse únicamente en la aumentación de la inteligencia como motor del futuro es dejar al margen una parte crítica del análisis—más concretamente, los cambios en motivación que puede que surjan con la amplificación de la inteligencia. Llamémoslo como la necesidad de “capacidades de liderazgo en las máquinas” o “filosofía de máquina”—sin estos elementos, un ciclo de respuesta como el anteriormente citado puede que fallase rápidamente.
Todos sabemos que la inteligencia, como se define comúnmente, no es suficiente como para impactar al mundo por sí sola. La capacidad para seguir un objetivo y saltar los obstáculos, ignorando el lado siniestro de la realidad (a veces incluso hasta el punto del engaño—por ejemplo, en contra de la inteligencia), también es importante. La mayoría de las historias de ciencia ficción prefieren que la inteligencia artificial esté extremadamente motivada para hacer cosas—por ejemplo, esclavizar o usar el látigo con los humanos, como si Matrix y Terminator 2 tuviesen algo que decir respecto al tema. Sin embargo, encuentro igual de plausible al robot Marvin, la máquina súper inteligente de Guía del Autoestopista Galático, de Douglas Adams, que utilizaba su enorme inteligencia artificial para sentarse y ponerse a quejarse, a falta de grandes objetivos que cumplir.
De hecho, una inteligencia realmente avanzada, si no está propiamente motivada, puede darse cuenta de la falta de permanencia de las cosas, calcular que el sol se quemará en unos cuantos billones de años, y decidir ponerse a jugar videojuegos durante el resto de su existencia, llegando a la conclusión de que la construcción de una máquina aún más inteligente no tiene sentido. (Un corolario de este tipo de pensamiento puede que explicase por qué no hemos encontrado vida extraterrestre aún: las inteligencias en la cúspide de conseguir hacer viajes interestelares puede que tengan tendencia a pensar que puesto que las galaxias desaparecerán en sólo 1019 años, es mejor quedarse en casa y ver la televisión.) Por tanto, si lo que intentamos es construir una máquina que sea capaz de desarrollar máquinas más inteligentes, es importante encontrar la forma de añadirles no sólo motivación, sino la ampliación de dicha motivación—el deseo continuado de construir motivación auto-sostenible, al mismo paso que se amplía la inteligencia. Si este tipo de motivación es algo que tendrán que poseer las futuras generaciones de inteligencia—metamotivación, podría ser el caso—entonces es importante que descubramos estos principios aquí y ahora.
Existe un segundo tipo de problema. Un ser inteligente puede que sea capaz de visionar más de una posibilidad frente a un ser menos inteligente, pero eso no siempre lleva a acciones más efectivas, especialmente si la variedad de posibilidades distrae a la inteligencia de sus objetivos originales (por ejemplo, el objetivo de construir inteligencia más inteligente). La incertidumbre inherente del universo puede que también acabe sobrepasando, o que tache de irrelevante, al proceso de toma de decisiones de este tipo de inteligencia. De hecho, si tenemos en cuenta un espacio de posibilidades altamente dimensional (con los ejes representando los distintos parámetros de acciones a llevar cabo), puede que resulte muy difícil evaluar qué camino es el que hay que seguir. La mente puede hacer planes en paralelo, pero las acciones son algo finalmente unitario, y dada la accesibilidad finita de los recursos, las acciones efectivas a menudo serán escasas en número.
Los últimos dos párrafos se aplican no sólo a la inteligencia artifical y a la vida extraterrestre, sino que también describen características de la mente humana que afectan a la toma de decisiones que a menudo se dan en muchos de nosotros—falta de motivación e impulso, y parálisis de la toma de decisiones al enfrentarnos a muchas opciones posibles. No obstante, llega a ser peor: sabemos que una motivación puede acabar siendo secuestrada por opciones que simulan la satisfacción a la que se dirige nuestra motivación. La adicción a las sustancias es una plaga entre millones de personas sólo en los Estados Unidos, y las adicciones a las cosas más sutiles, incluidos ciertos tipos de información (como los correos electrónicos), también son prominentes. Pocas artes resultan tan complejas como el hecho de pasar la motivación de una generación a la siguiente, con el objetivo de perseguir una gran idea. Los tipos de inteligencia que inventan tecnologías cada vez más absorbentes, capaces de obtener y mantener mejor la atención sobre ellas, mientras que al mismo tiempo reducen el impacto en el mundo, puede que entren a formar la parte opuesta de la singularidad.
¿Qué es lo opuesto a la singularidad? La singularidad depende de una recursión matemática: inventemos una superinteligencia, y después ella inventará una superinteligencia incluso más potente. No obstante, y como sabe cualquier estudiante de matemáticas, existen otros resultados dentro de cualquier proceso iterado, tales como el punto fijo. Un punto fijo es un punto que, cuando se le aplica una función, te devuelve el mismo punto de nuevo. La aplicación de funciones de este tipo a puntos cercanos al punto fijo a menudo las devuelve al punto fijo.
Un “punto fijo social” podría, por tanto, definirse como un estado que se auto-refuerza, permaneciendo en el status quo—que en principio podría ser pacífico y auto-sostenible, aunque también podría ser extremadamente aburrido—como, por ejemplo, con una gran cantidad de gente conectada a internet y viendo videos para siempre. Por tanto, como humanos puede que queramos, dentro de poco, empezar a diseñar las reglas de un tipo de tecnología que nos motive para alcanzar un objetivo o finalidad superior—o al menos que nos aleje de puntos fijos sociales sin salida. Este proceso requerirá que pensemos en cómo nos podría ayudar la tecnología a confrontar una antigua pregunta filosófica—para ser más concretos, “¿Qué debo hacer, dado que puedo seguir todos estos caminos distintos?” Quizá sea hora de encontrar una respuesta empírica a esta pregunta, derivada de las propiedades de nuestro cerebro y el universo en que vivimos.