Inteligencia Artificial
Geoffrey Hinton explica por qué tiene miedo ahora de la IA que ayudó a construir
"De repente, he cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros"
Me reuní con Geoffrey Hinton en su casa, ubicada en una bonita calle del norte de Londres, apenas cuatro días antes del anuncio de su renuncia en Google. Hinton es pionero del deep learning, que ayudó a desarrollar algunas de las técnicas más importantes en el centro de la inteligencia artificial actual. Pero, después de una década en Google, ha renunciado para centrarse en nuevas preocupaciones que ahora tiene sobre la IA.
Asombrado por las capacidades de los nuevos modelos lingüísticos de gran tamaño, como el GPT-4, Hinton quiere concienciar a la opinión pública de los graves riesgos que ahora cree que puede entrañar la tecnología que él mismo introdujo.
Al principio de nuestra conversación, me senté en la mesa de la cocina mientras Hinton paseaba por la habitación. Aquejado durante años de un crónico dolor de espalda, Hinton casi nunca se sienta. Durante la siguiente hora le vi caminar de un extremo a otro de la habitación, girando la cabeza mientras hablaba. Y tenía mucho que decir.
Este informático de 75 años recibió, junto a Yann LeCun y Yoshua Bengio, el Premio Turing en 2018 por su trabajo sobre deep learning, y asegura estar listo para bajar el ritmo. "Me estoy haciendo demasiado viejo para hacer trabajos técnicos que requieren recordar muchos detalles. Todavía estoy bien, pero no soy tan bueno como era antes, y eso me molesta".
Sin embargo, esa no es la única razón por la que ha dejado Google. Hinton quiere dedicar su tiempo a lo que describe como "un trabajo más filosófico". Esto es el pequeño, aunque para él muy real, peligro de que la IA acabe siendo un desastre.
Dejar al gigante tecnológico le permitirá decir lo que piensa, sin la autocensura a la que debe someterse un ejecutivo de Google. "Quiero hablar sobre la seguridad de la IA sin tener que preocuparme de cómo afecta al negocio de Google. Mientras Google me pague, no puedo hacerlo".
Esto no significa que Hinton se distancie de Google. "Puede que te sorprenda, pero hay muchas cosas buenas sobre Google que quiero decir, y son mucho más creíbles si ya no estoy dentro".
Hinton afirma que la nueva generación de grandes modelos lingüísticos -en especial, GPT-4, lanzado por OpenAI en marzo- le ha hecho darse cuenta de que las máquinas van camino de ser más inteligentes de lo que pensaba. Y le preocupa la forma en que esto ocurra.
"Estas cosas son muy diferentes a nosotros. A veces, pienso que es como si los extraterrestres hubieran aterrizado y la gente no se hubiera dado cuenta porque hablan muy bien inglés".
Fundaciones
Hinton es más conocido por su trabajo sobre una técnica llamada retropropagación, que propuso junto a un par de colegas en la década de 1980. En pocas palabras, la retropropagación es el algoritmo que permite a las máquinas aprender. Es la base de casi todas las redes neuronales actuales, desde los sistemas de visión por ordenador hasta los grandes modelos lingüísticos.
Aunque hubo que esperar hasta la década de 2010 para que el poder de las redes neuronales, entrenadas mediante retropropagación, tuviera un verdadero impacto. Trabajando con un par de estudiantes de posgrado, Hinton demostró que su técnica era mejor que cualquier otra para conseguir que un ordenador identificara objetos en imágenes. También entrenaron una red neuronal para predecir las siguientes letras de una frase, una antecesora de los grandes modelos lingüísticos actuales.
Uno de estos estudiantes era Ilya Sutskever, cofundador de OpenAI y responsable del desarrollo de ChatGPT. "Tuvimos los primeros indicios de que esto podía ser increíble", cuenta Hinton. "Pero ha tardado mucho tiempo en asimilarse que, para ser bueno, tiene que hacerse a gran escala". En los años 80, las redes neuronales eran una broma. La idea dominante entonces era la IA simbólica, una inteligencia que implicaba procesar símbolos, como palabras o números.
Sin embargo, Hinton no estaba convencido. Trabajó en redes neuronales, abstracciones informáticas del cerebro donde las neuronas y las conexiones entre ellas se representan mediante código. Cambiando la forma de conectarse de esas neuronas -por ejemplo, cambiando los números utilizados para representarlas-, así la red neuronal puede recablearse sobre la marcha. Es decir, se puede conseguir que aprenda.
"Mi padre era biólogo, así que yo pensaba en términos biológicos", explica Hinton. "Está claro que el razonamiento simbólico no es el centro de la inteligencia biológica".
"Los cuervos pueden resolver rompecabezas, y no tienen lenguaje. No lo hacen almacenando cadenas de símbolos y manipulándolas, sino cambiando la fuerza de las conexiones entre las neuronas de su cerebro. Así que debe ser posible aprender cosas complicadas al cambiar la fuerza de las conexiones en una red neuronal artificial".
Una nueva inteligencia
Durante 40 años, Hinton ha considerado las redes neuronales artificiales como un pobre intento de imitar las biológicas. Ahora, cree que eso ha cambiado; piensa que, al imitar lo que hacen los cerebros biológicos, hemos dado con algo mejor. "Da miedo verlo. Es un vuelco repentino".
A muchos, los temores de Hinton les parecerán de ciencia ficción. Pero este es su razonamiento.
Como su nombre indica, los grandes modelos lingüísticos están formados por enormes redes neuronales con un gran número de conexiones, pero son minúsculos en comparación con el cerebro. "Nuestro cerebro tiene 100 billones de conexiones. Los grandes modelos lingüísticos tienen hasta medio billón, o un billón como mucho. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Quizá tenga un algoritmo de aprendizaje mucho mejor que el nuestro", desarrolla Hinton.
En comparación con los cerebros, se cree que las redes neuronales aprenden mal. Ya que se necesitan grandes cantidades de datos y energía para entrenarlas. En cambio, los cerebros captan nuevas ideas y habilidades rápidamente, utilizando una fracción de la energía que emplean las redes neuronales.
"La gente parecía hacer magia", dice Hinton. "Ese argumento se viene abajo en cuanto se entrena uno de estos grandes modelos lingüísticos para hacer algo nuevo. Puede aprender tareas nuevas con extrema rapidez".
Hinton habla de un "aprendizaje de pocos intentos", así las redes neuronales (preentrenadas como los grandes modelos lingüísticos) pueden habituarse a hacer algo nuevo a partir de unos pocos ejemplos. Hinton señala un caso concreto: algunos de estos modelos lingüísticos pueden encadenar una serie de enunciados lógicos para formar un argumento, aunque nunca hayan sido entrenados para hacerlo.
“Compara la velocidad un gran modelo lingüístico, realizado con un humano, en cuanto al aprendizaje de una tarea como esa y la ventaja del humano desaparece”, afirma.
¿Qué sucede con el hecho de que los grandes modelos lingüísticos se inventen tantas cosas? Los investigadores de IA lo llaman "alucinaciones", aunque Hinton prefiere el término "confabulaciones", porque es el correcto en psicología. Estos errores suelen considerarse un defecto de la tecnología. La tendencia a generarlos hace que los chatbots no sean de fiar y, según muchos, demuestra que estos modelos no comprenden lo que dicen.
Hinton también tiene una respuesta para eso: mentir es una característica, no un error. "La gente siempre confabula", ya que las medias verdades y los detalles mal recordados son características de la conversación humana. "La confabulación es una característica de la memoria humana, estos modelos tienen características que parecen de personas".
La diferencia, dice Hinton, es que los humanos suelen confabular casi correctamente. Para él, inventarse datos no es el problema. Los modelos lingüísticos solo necesitan algo más de práctica.
Además, esperamos que los ordenadores acierten o se equivoquen, no un gris intermedio. "No esperamos que cotorreen como las personas. Cuando un ordenador hace eso, pensamos que se ha equivocado. Pero cuando lo hace una persona, es cómo funcionan las personas. El problema es que la mayoría tiene una visión equivocada de cómo trabaja la gente".
Por supuesto, el cerebro humano sigue haciendo muchas cosas mejor que un ordenador. Por ejemplo: conducir un coche, aprender a andar, o imaginar el futuro. Y los cerebros pueden hacerlo con una taza de café y una tostada. "Cuando la inteligencia biológica estaba evolucionando, no tenía acceso a una central nuclear".
No obstante, Hinton asegura que, si estamos dispuestos a pagar los costes más elevados de la informática, hay formas cruciales para que las redes neuronales puedan superar a la biología en el aprendizaje. Y merece la pena detenerse a considerar lo que suponen esos costes en términos de energía y carbono.
Aprender solo es la primera rama del argumento de Hinton, la segunda es comunicar. "Si usted o yo aprendemos algo y queremos transferir ese conocimiento a otra persona, no podemos enviarle una copia. Pero puedo tener 10.000 redes neuronales, cada una con sus propias experiencias y, al instante, cualquiera puede compartir lo que ha aprendido. Es una diferencia enorme, como si fuéramos 10.000 personas, y en cuanto una aprendiera algo, el resto también lo sabríamos".
¿Qué significa esto? Ahora, Hinton piensa que hay dos tipos de inteligencia en el mundo: los cerebros animales y las redes neuronales. "Es una forma de inteligencia diferente. Una forma de inteligencia nueva y mejor".
Esta una gran afirmación. Y la IA es un campo muy polarizado, sería fácil encontrar expertos que se rieran de su argumento, y otras que lo avalaran.
La población también está dividida sobre si las consecuencias de esta nueva forma de inteligencia, de existir, serían beneficiosas o apocalípticas. "Pensar que la superinteligencia va a ser buena o mala depende de si uno es optimista o pesimista", afirma el informático. "Si se pide a la gente que calcule el riesgo de que sucedan lo peor, como la posibilidad de que un familiar enferme de gravedad o sea atropellado por un coche; un optimista diría que [la probabilidad es] el 5% y un pesimista dirá que eso ocurrirá. Pero una persona algo desalentada dirá que las probabilidades rondan el 40%, y tendría razón".
¿Cuál es la opinión de Hinton al respecto? "Estoy desalentado, por eso tengo miedo", se sincera.
¿Cómo podría salir todo mal?
Hinton teme que estas herramientas sean capaces de descubrir formas de manipular (o matar) a los humanos que no estén preparados para esta nueva tecnología.
"De repente, he cambiado de opinión sobre si estas herramientas van a ser más inteligentes que nosotros. Creo que ahora están muy cerca de serlo, y en el futuro serán incluso más inteligentes que nosotros. ¿Cómo sobreviviremos a eso?"
En especial, le preocupa que la gente pueda aprovechar las herramientas a las que él mismo ayudó a crear para inclinar la balanza de las experiencias humanas más trascendentales, como las elecciones o las guerras.
"Podría salir mal de la siguiente manera: muchas de las personas que quieren utilizar estas herramientas son malos, como Putin o DeSantis. Quieren usarlas para ganar guerras, o manipular al electorado".
Hinton considera que el siguiente paso para esta inteligencia es la capacidad de crear sus propios objetivos, los pasos intermedios necesarios para llevar a cabo una tarea. Además, se pregunta qué ocurrirá cuando esa capacidad se aplique a algo inmoral.
"No pienses, ni por un momento, que Putin no fabricaría robots hiperinteligentes con el objetivo de matar ucranianos. No lo dudaría. Y si quiere que sean buenos en eso, no quiere microgestionarlos: quiere que descubran cómo hacerlo".
Ya hay un puñado de proyectos experimentales, como BabyAGI y AutoGPT, que conectan chatbots con otros programas, como navegadores web o procesadores de texto, para que encadenen tareas sencillas. Son pequeños pasos, sin duda, pero apuntan en la dirección hacia la que algunos quieren llevar esta tecnología. Incluso si un actor malintencionado no se apodera de estas herramientas, hay otras preocupaciones sobre los objetivos secundarios, asegura Hinton.
"Hay un objetivo menor, que casi siempre ayuda en biología, este es: conseguir más energía. Por ello, lo primero que podría suceder es que estos robots digan: 'Vamos a obtener más energía y redirigir toda la electricidad a mis chips’". Otro objetivo sería hacer más copias de sí mismo. ¿Eso parece una buena idea?"
Puede que no. Pero Yann LeCun, científico jefe de IA en Meta, concuerda con la premisa pero no comparte los temores de Hinton. "En el futuro, las máquinas serán más inteligentes que los humanos en todos los ámbitos donde los humanos son inteligentes- ", afirma LeCun. "Es una cuestión de cuándo y cómo, no de si [sucederá]".
No obstante, LeCun tiene una visión distinta del lugar hacia donde van a partir de ahí. "Las máquinas inteligentes marcarán el comienzo de un nuevo renacimiento de la humanidad, una nueva era de iluminación. Y estoy en desacuerdo con la idea de que las máquinas dominarán a los humanos porque serán más inteligentes, y mucho menos los destruirán".
"Incluso dentro de la especie humana, los más inteligentes no son los más dominantes", concluye LeCun. "Y los más dominantes no son más inteligentes. Tenemos numerosos ejemplos de ello en la política y los negocios".
Yoshua Bengio, profesor de la Universidad de Montreal (Canadá) y director científico del Instituto de Algoritmos de Aprendizaje de Montreal (MILA, por sus siglas en inglés), se muestra más agnóstico. "Hay quien denigra estos miedos, pero no veo ningún argumento sólido que me convenza de que no existen riesgos de la magnitud de lo que piensa Geoff", afirma Bengio. Pero el miedo solo es útil si nos impulsa a la acción: "El exceso de miedo puede ser paralizante, así que deberíamos intentar mantener los debates en un nivel racional".
Solo basta con mirar hacia arriba
Una de las prioridades de Hinton es trabajar con los líderes de la industria tecnológica para reunirse y ponerse de acuerdo sobre cuáles son los riesgos, y qué hacer al respecto. Cree que la prohibición internacional de las armas químicas podría ser un modelo para frenar el desarrollo y el uso de la IA peligrosa. "No fue infalible pero, en general, la gente no utiliza armas químicas".
Bengio coincide con Hinton en que estas cuestiones deben abordarse a nivel social lo antes posible. Pero afirma que el desarrollo de la IA se está acelerando más de lo que la sociedad puede seguir. Las capacidades de esta tecnología avanzan cada pocos meses, mientras la legislación, la regulación y los tratados internacionales tardan años.
Esto hace que Bengio se pregunte si la actual forma de organización de nuestras sociedades -tanto a nivel nacional como mundial- está a la altura del reto. "Deberíamos estar abiertos a la posibilidad de [concebir] modelos diferentes para la organización social de nuestro planeta".
¿De verdad Hinton cree que puede conseguir que suficientes personas con poder compartan sus preocupaciones? Lo desconoce. Hace unas semanas, vio la película No mires arriba (Don't Look Up, 2021), en la cual un asteroide se precipita hacia la Tierra, nadie se pone de acuerdo sobre qué hacer al respecto y todo el mundo muere.
"Así [ocurre] con la inteligencia artificial", afirma, y también con otros grandes problemas insolubles. "EE UU ni siquiera puede ponerse de acuerdo para evitar que los rifles de asalto lleguen a manos de los adolescentes".
El argumento de Hinton es aleccionador. Comparto su sombría valoración de la incapacidad colectiva para que la población actúe ante las graves amenazas. También es cierto que la IA corre el riesgo de causar daños reales, como alterar el mercado laboral, afianzar la desigualdad, agravar el machismo y el racismo, etc. Debemos centrarnos en esos problemas. Pero aún no puedo concebir el salto de los grandes modelos lingüísticos a los señores robots. Tal vez sea optimista.
Cuando Hinton me despidió, el día primaveral se había vuelto gris y húmedo. "Diviértete, puede que no te quede mucho tiempo", dijo riéndose, y cerró la puerta.