.

Otros

Geoffrey Hinton, pionero de la IA y figura principal del catastrofismo, gana el Premio Nobel

0

El premio reconoce las contribuciones fundamentales al aprendizaje profundo, una tecnología a la que Hinton desde entonces le tiene miedo.

  • por Will Douglas Heaven | traducido por
  • 08 Octubre, 2024

Geoffrey Hinton, un científico informático cuyo trabajo pionero sobre aprendizaje profundo en las décadas de 1980 y 1990 sustenta todos los modelos de IA más potentes del mundo actual, ha sido galardonado con el Premio Nobel de Física 2024 por la Real Academia Sueca de Ciencias.

Minutos después del anuncio, Hinton habló por teléfono con la Academia y dijo que estaba estupefacto: "No tenía ni idea de que esto iba a pasar. Estoy muy sorprendido".

Hinton comparte el premio con su colega informático John Hopfield, que inventó un tipo de red neuronal capaz de encontrar patrones y almacenar y reconstruir datos. Hinton se basó en esta tecnología, conocida como red Hopfield, para desarrollar la retropropagación, un algoritmo que permite que las redes neuronales aprendan.

Hopfield y Hinton tomaron prestados métodos de la física, especialmente técnicas estadísticas, para desarrollar sus enfoques. En palabras del comité del Premio Nobel, ambos reciben el reconocimiento “por descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”.

Pero desde mayo de 2023, cuando MIT Technology Review ayudó a dar la noticia de que Hinton ahora tenía miedo de la tecnología que había ayudado a crear , el científico de 76 años se ha vuelto mucho más conocido como una figura representativa del catastrofismo: la idea de que existe un riesgo muy real de que la IA del futuro cercano pueda precipitar eventos catastróficos, incluida la extinción humana.

El fatalismo no era algo nuevo, pero Hinton —que ganó el Premio Turing, el máximo galardón en ciencias de la computación, en 2018— aportó nueva credibilidad a una postura que muchos de sus pares alguna vez consideraron disparatada.

¿Qué llevó a Hinton a hablar abiertamente? Cuando me reuní con él en su casa de Londres el año pasado,Hinton me dijo que estaba asombrado por lo que los nuevos modelos de lenguaje de gran tamaño podían hacer . El último modelo estrella de OpenAI, GPT-4 , se había lanzado unas semanas antes. Lo que Hinton vio lo convenció de que esa tecnología, basada en el aprendizaje profundo, se volvería rápidamente más inteligente que los humanos. Y le preocupaba qué motivaciones tendría cuando así fuera.

“De repente he cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros”, me dijo en aquel momento. “Creo que están muy cerca de lograrlo ahora y serán mucho más inteligentes que nosotros en el futuro. ¿Cómo sobreviviremos a eso?”

Las opiniones de Hinton generaron un revuelo mediático que duró meses y convirtieron en preocupaciones comunes los riesgos existenciales que él y otros imaginaban (desde el colapso económico hasta los robots genocidas). Cientos de científicos y líderes tecnológicos de primer nivel firmaron cartas abiertas advirtiendo sobre los desastrosos efectos negativos de la inteligencia artificial. Se propuso una moratoria al desarrollo de la IA. Los políticos aseguraron a los votantes que harían lo que pudieran para evitar lo peor.

A pesar del revuelo, muchos consideran que las opiniones de Hinton son fantásticas. Yann LeCun, científico jefe de inteligencia artificial en Meta y compañero de Hinton en el premio Turing 2018, ha calificado el catastrofismo de "absurdamente ridículo".

El premio de hoy recompensa el trabajo fundamental en una tecnología que se ha convertido en parte de la vida cotidiana. Sin duda, también arrojará más luz sobre las opiniones más alarmistas de Hinton.

Otros

  1. La "voz avanzada" de OpenAI llega a más usuarios con el objetivo de ser un asistente natural

    La compañía dice que la versión actualizada responde a tus emociones y tono de voz y te permite interrumpirla a mitad de una oración.

  2. Crece la preocupación de los virólogos por la gripe aviar: "Tiene potencial pandémico"

    La pervivencia de la gripe aviar en vacas lecheras de las granjas de EE UU podría mantenerse para siempre, un factor que está aumenta el riesgo de brotes en mamíferos -incluidos los humanos- en todo el mundo.

    Aves de corral | Getty Images
  3. ¿En qué se parece nuestro genoma a un modelo de IA generativa?

    Al parecer, nuestro código genético funciona un poco como DALL-E, según un reciente artículo científico