.

El superordenador de ajedrez Deep Blue fue eclipsado por la revolución de las redes neuronales, pero, 25 años después, quizá no haya dicho su última palabra

Inteligencia Artificial

¿Puede aprender la IA algo de su propia historia?

1

El superordenador de ajedrez Deep Blue fue eclipsado por la revolución de las redes neuronales, pero, 25 años después, quizá no haya dicho su última palabra

  • por Clive Thompson | traducido por Ana Milutinovic
  • 17 Marzo, 2022

El 11 de mayo de 1997, Gari Kasparov se movía inquieto en su lujoso sillón de piel en el Equitable Center de Manhattan (EE UU), mesándose el cabello de forma nerviosa. Era el final de su partida contra el superordenador Deep Blue de IBM, el desempate crucial del enfrentamiento entre humanos y silicio, y las cosas no le iban bien. Culpándose a sí mismo, después de cometer un grave error al principio de la partida, Kasparov acabó arrinconado.

Una partida de ajedrez de alto nivel suele durar al menos cuatro horas, pero Kasparov se dio cuenta de que estaba sentenciado antes de que transcurriera la primera. Anunció que abandonaba y se inclinó sobre el tablero de ajedrez para estrechar la mano de Joseph Hoane, el ingeniero de IBM que había ayudado a desarrollar Deep Blue y que movía las figuras del ordenador por el tablero.

Después, Kasparov se levantó de su sillón y caminó hacia el público. Se encogió de hombros mostrando su poca fortuna. Más tarde admitió que la máquina "había jugado como un dios".

Para los interesados en la inteligencia artificial (IA), la derrota del gran maestro sonó como una campana. Newsweek lo describió como "La última batalla del cerebro", otro titular se refirió a Kasparov como "el defensor de la humanidad". Si la IA lograba vencer al ajedrecista con la mejor mente del mundo, los ordenadores, con IBM a la cabeza, podrían derrotarnos en todo.

Eso no sucedió, por supuesto. De hecho, 25 años después, cuando miramos hacia atrás podemos contemplar que la victoria de Deep Blue no fue tanto un triunfo de la IA sino una especie de sentencia de muerte. Fue un punto culminante para la inteligencia informática de la vieja escuela, la ardua elaboración manual de interminables líneas de código, que pronto iba a ser eclipsada por una forma rival de IA: la red neuronal, y en especial, la técnica conocida como "aprendizaje profundo". A pesar de toda su importancia, Deep Blue era un enorme dinosaurio a punto de ser eliminado por un asteroide; las redes neuronales eran los pequeños mamíferos que sobrevivieron y transformaron el planeta. Sin embargo, incluso hoy en día, en lo más profundo de este mundo repleto de IA cotidiana, los científicos informáticos siguen discutiendo si las máquinas realmente "pensarán" alguna vez. Y para responder a esa pregunta, Deep Blue podría recordar el dicho "el que ríe el último, ríe mejor".

Cuando IBM empezó a trabajar para crear Deep Blue en 1989, la IA no estaba en su mejor momento. Esta disciplina había pasado por varios ciclos de montaña rusa: del ascenso vertiginoso al colapso humillante. Los pioneros en la década de 1950 aseguraban que la IA pronto iba a experimentar grandes avances; el matemático Claude Shannon predijo que "algo muy similar a los robots de ciencia ficción surgirían de los laboratorios dentro de diez o quince años" . Pero esto no ha ocurrido. Cada vez que los inventores fallaban en sus promesas, los inversores se retiraban y dejaban de financiar nuevos proyectos, creando un "invierno de IA" en la década de 1970 y de nuevo en la de 1980.

La razón por la que fallaban, lo sabemos ahora, es que los creadores de IA intentaban manejar el desorden de la vida cotidiana utilizando la lógica pura.  Se imaginaban que así lo hacían los seres humanos. Y por eso, los ingenieros escribían con suma paciencia una regla para cada decisión que su IA tenía que tomar.

El problema consiste en que el mundo real es demasiado confuso y matizado para ser manejado de esta manera. Los ingenieros creaban cuidadosamente sus obras maestras de relojería, o "sistemas expertos", como se les llamaba, que funcionaban razonablemente bien hasta que la realidad les empezaba a mandar complicaciones. Una compañía de tarjetas de crédito, por ejemplo, pudo crear un sistema para aprobar automáticamente las solicitudes de crédito, para descubrir luego que habían emitido tarjetas para perros o niños de 13 años. Los programadores nunca se habían imaginado que los menores o las mascotas solicitarían una tarjeta, por lo que no habían escrito las reglas para adaptarse a esos casos extremos. Ese tipo de sistemas no podían aprender una nueva regla por sí solos.

La IA construida a través de las reglas hechas a mano era "frágil". Cuando se encontraba en una situación extraña, se rompía. A principios de la década de 1990, los problemas con los sistemas expertos provocaron otro invierno de la IA.

"Gran parte de la conversación sobre la IA se redujo a venga ya, esto es solo palabrería", señala el CEO del Instituto Allen para IA de Seattle (EE UU), Oren Etzioni, quien entonces era un joven profesor de ciencias de la computación que empezaba su carrera en IA. En ese ambiente de escepticismo, Deep Blue llegó como una idea extrañamente ambiciosa.

El proyecto surgió del trabajo en Deep Thought, el ordenador para jugar al ajedrez construido en la Universidad de Carnegie Mellon (EE UU) por los informáticos Murray Campbell, Feng-hsiung Hsu y otros. Deep Thought funcionó muy bien: en 1988, se convirtió en la primera IA de ajedrez en vencer a un gran maestro, Bent Larsen. El equipo de la Universidad de Carnegie Mellon había descubierto los mejores algoritmos para los movimientos de ajedrez y también había creado un hardware específico que los procesaba rápidamente. El nombre Deep Thought o "Pensamiento profundo" viene del libro Guía del autoestopista galáctico, de Douglas Adams. En concreto, es el nombre de un superordenador, tan oracular como risible, que ofrece como respuesta “42”, cuando se le pregunta por el significado de la vida.

IBM escuchó sobre Deep Thought y decidió que sería un "gran desafío", construir un ordenador tan bueno que pudiera vencer a cualquier persona. En 1989 contrató a Hsu y a Campbell, y les encargó la tarea de superar al mejor maestro del mundo. En los círculos de IA, el ajedrez había sido siempre un poderoso símbolo: dos oponentes que se enfrentan en el plano astral del pensamiento puro. Indudablemente, iba a generar titulares si lograban derrotar a Kasparov.

Para construir Deep Blue, Campbell y su equipo tuvieron que crear nuevos chips para calcular las posiciones de ajedrez aún más rápido y a contratar grandes maestros para mejorar los algoritmos para decidir los próximos movimientos. La eficiencia importaba: hay más posibles juegos de ajedrez que átomos en el universo, y ni siquiera un superordenador podría aprenderlos todos en un tiempo razonable. Para jugar al ajedrez, Deep Blue analizaba un movimiento por delante, calculaba posibles movimientos a partir de ahí, "descartaba" los que parecían poco prometedores, profundizaba en los caminos prometedores y repetía el proceso varias veces.

"Pensábamos que tardaríamos cinco años, pero en realidad hizo falta algo más de seis", cuenta Campbell. En 1996, IBM decidió que por fin estaba listo para enfrentarse a Kasparov y fijó una partida para febrero. Campbell y su equipo todavía trabajaban frenéticamente para terminar Deep Blue: "El sistema solo había estado funcionando unas pocas semanas antes de subir al escenario", admite Campbell.

Y eso se notó. Aunque Deep Blue ganó una partida, Kasparov ganó tres y se llevó la victoria. IBM pidió una revancha y el equipo de Campbell pasó el año siguiente construyendo un hardware aún más rápido. Cuando completaron sus mejoras, Deep Blue estaba compuesto por 30 procesadores PowerPC y 480 chips de ajedrez específicos. Llegaron a contratar a cinco grandes maestros de esta disciplina para que les ayudaran a crear mejores algoritmos. Cuando Kasparov y Deep Blue se volvieron a enfrentar, en mayo de 1997, el ordenador era dos veces más rápido y analizaba 200 millones de movimientos de ajedrez por segundo. 

Aun así, IBM aún no confiaba en la victoria. "Esperábamos un empate", recuerda Campbell.

La realidad fue considerablemente más dramática. Kasparov dominó en la primera partida. Pero en su movimiento 36 de la segunda, Deep Blue hizo algo que Kasparov no esperaba.

El gran maestro estaba acostumbrado a la forma en la que los ordenadores jugaban al ajedrez habitualmente, un estilo nacido de las habilidades de fuerza bruta de las máquinas. Eran mejores que las personas en las tácticas a corto plazo, pero solían ser malos en la estrategia, en la capacidad de reflexionar sobre la evolución de una partida con muchos movimientos por delante. Ahí es donde las personas todavía tenían ventaja.

O eso era lo que pensaba Kasparov, hasta que lo desconcertó el movimiento de Deep Blue en la segunda partida. Parecía tan sofisticado que Kasparov empezó a preocuparse: ¡tal vez la máquina era mucho mejor de lo que pensaba! Convencido de que no tenía forma de ganar, se rindió.

Pero no tendría que haberlo hecho. Resultaba que Deep Blue no era tan bueno. Kasparov no había notado un movimiento que hubiera permitido que la partida terminara en tablas. Perdió la confianza en sí mismo por razones psicológicas: preocupado por que la máquina fuera mucho más poderosa de lo que realmente era, Kasparov comenzó a ver un razonamiento humano donde no lo había.

Ya fuera de su dinámica, Kasparov siguió jugando cada vez peor, desconfiando de sí mismo una y otra vez. A principios de la sexta partida, en la que se decidía el ganador, hizo un movimiento tan malo que el público gritó asombrado. "No estaba de humor para seguir jugando", admitió Kasparov más tarde en la rueda de prensa.

IBM se benefició de su audacia. En el frenesí de los medios que siguió al éxito de Deep Blue, la capitalización de mercado de la empresa creció 11.400 millones de dólares (10.447 millones de euros) en una sola semana. No obstante, más significativo aún fue el deshielo en el largo invierno de la IA que provocó este triunfo. Si se podía conquistar el ajedrez, ¿qué sería lo siguiente? La mente de la opinión pública sufrió una sacudida .

"Esto es lo que hizo que la gente nos prestara más atención", confiesa Campbell.

En realidad, no fue tan sorprendente que un ordenador venciera a Kasparov. La mayoría de las personas que habían estado prestando atención a la IA, y al ajedrez, esperaban que eso sucediera en algún momento.

El ajedrez puede parecer lo más alto del pensamiento humano, pero no lo es. De hecho, es una tarea mental que se presta bastante a la computación de fuerza bruta: las reglas son claras, no hay información oculta y un ordenador ni siquiera tiene que realizar un seguimiento de los movimientos anteriores. Solo analiza la posición de las piezas en cada momento.

"Hay muy pocos problemas en los que, como en el ajedrez, exista toda la información necesaria para tomar la decisión correcta".

Todos sabían que, cuando los ordenadores se volvieran lo suficientemente rápidos, superarían a los humanos. Era solo una cuestión de tiempo. "A mediados de la década de 1990, ya se venía avisando", resalta Demis Hassabis, director de DeepMind, la empresa de IA de Alphabet (Google).

La victoria de Deep Blue fue el momento que mostró lo limitados que pueden ser los sistemas codificados a mano. IBM había gastado años y millones de euros desarrollando un ordenador para jugar al ajedrez. Pero que no podía hacer otra cosa.

"Esta IA no trajo avances que tuvieran un gran impacto en el mundo", señala Campbell. Realmente no descubrieron ningún principio de inteligencia, porque el mundo real no se parece al ajedrez. "Hay muy pocos problemas en los que, como en el ajedrez, toda la información necesaria para tomar la decisión correcta esté disponible. La mayoría de las veces hay incógnitas y aleatoriedad", añade Campbell.

Pero mientras Deep Blue hacía morder el polvo a Kasparov, un puñado de  brillantes investigadores rudimentarios jugaban en sus garajes con una forma de IA mucho más prometedora: la red neuronal.

En el caso de las redes neuronales, la idea no era, como con los sistemas expertos, escribir con suma paciencia las reglas para cada decisión que una IA tenía que tomar, sino que el entrenamiento y el refuerzo establecieran conexiones internas, en una aproximación a cómo se cree que aprende el cerebro humano.

Gari Kasparov se enfrenta a Deep Blue

Foto: 1997: Después de que Gari Kasparov venciera a Deep Blue en 1996, IBM le pidió una revancha al campeón mundial de ajedrez, que se llevó a cabo en la ciudad de Nueva York (EE UU) con una máquina mejorada. Créditos: AP Photo / Adam Nadel

La idea existía desde la década de 1950. Pero entrenar una gran red neuronal requería ordenadores ultrarrápidos, mucha memoria y una enorme cantidad de datos. Nada de eso estaba disponible entonces. Incluso en la década de 1990, las redes neuronales se consideraban una pérdida de tiempo.

"En esa época, la mayoría de las personas involucradas en la IA pensaban que las redes neuronales eran una tontería", afirma el profesor emérito de Ciencias de la Computación de la Universidad de Toronto (Canadá) y pionero en el campo Geoff Hinton. "Me decían que yo era un verdadero creyente y no como un halago”, añade.

Pero en la década de 2000, la industria informática evolucionó e hizo que las redes neuronales fueran viables. El deseo de los jugadores de videojuegos de tener gráficos cada vez mejores creó una enorme industria de unidades de procesamiento de gráficos ultrarrápidas, que resultaron ser perfectamente adecuadas para las redes neuronales. Al mismo tiempo, se producía la gran explosión de Internet que generó un torrente de imágenes y texto que se podían aprovechar para entrenar los sistemas.

A principios de la década de 2010, estos avances técnicos permitieron que Hinton y su equipo de verdaderos creyentes llevaran las redes neuronales a nuevas alturas. Ya podían crear redes con muchas capas de neuronas (que es a lo que se refiere "profundo" en "aprendizaje profundo"). En 2012, su equipo ganó cómodamente la competición anual Imagenet, donde las IA compiten para reconocer elementos en imágenes, y asombró al mundo de la informática. Las máquinas de autoaprendizaje por fin eran viables.

Diez años después de la revolución del aprendizaje profundo, las redes neuronales y sus habilidades de reconocimiento de patrones han conquistado todos los rincones de la vida cotidiana. Ayudan a Gmail a autocompletar las frases, a los bancos a detectar los fraudes, permiten que las apps de fotos reconozcan automáticamente los rostros y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben largos ensayos que parecen escritos por personas y resumen textos. Incluso están cambiando la forma en la que se hace ciencia: en 2020, DeepMind presentó su IA AlphaFold2, que puede predecir cómo se plegarán las proteínas, una habilidad sobrehumana que puede ayudar a guiar a los investigadores a desarrollar nuevos medicamentos y tratamientos.

Mientras tanto, Deep Blue desapareció, sin dejar inventos útiles a su paso. Resultó que jugar al ajedrez no era una habilidad informática necesaria en la vida cotidiana. "Lo que al final mostró Deep Blue fueron los límites de intentar hacer todo manualmente", señala el fundador de DeepMind, Hassabis.

IBM intentó remediar la situación con Watson, otro sistema especializado diseñado para abordar un problema más práctico: hacer que una máquina responda a las preguntas. Usaba el análisis estadístico de inmensas cantidades de texto para lograr una comprensión del lenguaje que era, para su época, de vanguardia. Era más que un simple sistema si A, entonces BPero Watson apareció en un momento desafortunado: fue eclipsado por la revolución en el aprendizaje profundo, que trajo una generación de modelos de procesamiento de lenguaje mucho más matizados que las técnicas estadísticas de Watson.

El aprendizaje profundo ha derrotado a la IA de la vieja escuela precisamente porque, según indica la exprofesora de la Universidad de Stanford (EE UU) Daphne Koller, "el reconocimiento de patrones es increíblemente poderoso". Koller fundó y dirige Insitro, que utiliza las redes neuronales y otras formas de aprendizaje automático para investigar nuevos tratamientos farmacológicos. La flexibilidad de las redes neuronales, la amplia variedad de maneras en las que se puede usar el reconocimiento de patrones, es la razón por la que todavía no ha habido otro invierno de la IA. "El aprendizaje automático realmente ha aportado valor", según Koller, algo que las anteriores oleadas de auge de la IA nunca habían logrado, en su opinión.

Las fortunas invertidas en Deep Blue y en las redes neuronales muestran que durante mucho tiempo fuimos muy torpes a la hora de juzgar qué era lo difícil y qué era lo valioso en la IA. Durante décadas, se pensó que dominar el ajedrez sería importante porque es verdad que jugar al ajedrez a un alto nivel es complicado para los humanos. Pero el ajedrez resultó ser bastante fácil para los ordenadores, porque es muy lógico.

Lo que para los ordenadores era mucho más difícil de aprender fue el trabajo mental casual e inconsciente que hacen los humanos, como mantener una conversación animada, conducir un coche con mucho tráfico o descubrir el estado emocional de un amigo. Nosotros hacemos estas cosas con tanta facilidad que rara vez nos damos cuenta de lo complicado que es y de la cantidad de criterios confusos y en escala de grises que requieren. La gran utilidad del aprendizaje profundo consiste en captar los pequeños fragmentos de esta inteligencia humana sutil y única.

Aun así, no hay una victoria final en la inteligencia artificial. El aprendizaje profundo puede estar en lo más alto actualmente, pero también va acumulando duras críticas.

"Durante mucho tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que resolvería todos los problemas", asegura Meredith Broussard, programadora, profesora de Periodismo de la Universidad de Nueva York y autora de Artificial Unintelligence. Pero, tal como ella y otros críticos han señalado, los sistemas de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben esos sesgos. Las investigadoras Joy Buolamwini y Timnit Gebru descubrieron que tres sistemas de IA visual disponibles comercialmente eran terribles en analizar los rostros de mujeres de piel más oscura. Amazon entrenó una IA para examinar los currículums, para luego descubrir que clasificaba peor a las mujeres.

Aunque los científicos informáticos y muchos ingenieros de IA son conscientes de estos problemas de sesgo en la actualidad, no siempre están seguros de cómo lidiar con ellos. Además, las redes neuronales también son "enormes cajas negras", afirma Daniela Rus, una veterana de IA que actualmente dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Después de entrenar una red neuronal, su mecánica no es fácil de comprender ni siquiera por su propio creador. No está claro cómo llega a sus conclusiones, o cómo podría fallar.

"Durante mucho tiempo, existió un entusiasmo tecno-chovinista con la IA y la idea de que resolvería todos los problemas"

Rus cree que puede que no sea un problema confiar en una caja negra para una tarea “que no sea crítica para la seguridad”. Pero, ¿qué pasa con un trabajo de mayor riesgo, como la conducción autónoma? "Es bastante sorprendente que hayamos depositado tanta confianza y fe en ellos", opina Rus.

Aquí es donde Deep Blue tenía una ventaja. El estilo de la vieja escuela de reglas hechas a mano pudo haber sido frágil, pero era comprensible. La máquina era compleja, pero no era un misterio.

Irónicamente, ese viejo estilo de programación podría presenciar una especie de regreso, ya que los ingenieros y los científicos informáticos empiezan a enfrentarse ya a los límites de la coincidencia de patrones.

Los generadores de lenguaje, como GPT-3 de OpenAI o Gopher de DeepMind, pueden tomar algunas frases escritas y continuar escribiendo páginas de prosa convincente. Pero a pesar de esa imitación impresionante, Gopher "todavía no entiende realmente lo que escribe", señala Hassabis. "No en un sentido real".

De manera similar, la IA visual puede cometer terribles errores cuando se encuentra con un caso extremo. Algunos coches sin conductor se han estrellado contra los camiones de bomberos estacionados en las carreteras, porque en los millones de horas de vídeo en los que habían sido entrenados, nunca se habían encontrado con esa situación. Las redes neuronales tienen otra versión del mismo problema de "fragilidad".

Lo que la IA realmente necesita para avanzar, como muchos científicos informáticos indican, es la capacidad de conocer los hechos sobre el mundo y razonar sobre ellos. Un coche autónomo no puede basarse únicamente en la coincidencia de patrones. También debe tener el sentido común: saber qué es un camión de bomberos y por qué ver uno estacionado en una carretera significa peligro.

El problema es que nadie sabe muy bien cómo construir las redes neuronales capaces de razonar o usar el sentido común. El científico cognitivo y coautor de Rebooting AI, Gari Marcus, considera que el futuro de la IA requerirá un enfoque "híbrido": las redes neuronales para aprender los patrones, pero guiadas por una lógica previa codificada manualmente. En cierto sentido, esto fusionaría los aportes de Deep Blue con los del aprendizaje profundo.

Los defensores incondicionales del aprendizaje profundo no están de acuerdo. Hinton cree que las redes neuronales deberían, a largo plazo, ser perfectamente capaces de razonar. Al fin y al cabo, los seres humanos lo hacen, "y el cerebro es una red neuronal". Usar lógica codificada a mano le parece una locura; se encontraría con el problema de todos los sistemas expertos, que es que nunca se puede anticipar todo el sentido común que le queremos dar a una máquina. El camino a seguir, según Hinton, es continuar innovando en las redes neuronales, para explorar nuevas estructuras y nuevos algoritmos de aprendizaje que imiten con mayor precisión cómo funciona el cerebro humano.

Los informáticos están abordando el problema desde distintos enfoques. En IBM, el desarrollador de Deep Blue, Campbell, está trabajando en una IA "neuro-simbólica" que funciona un poco como propone Marcus. El laboratorio de Etzioni está comenzando a intentar desarrollar módulos de sentido común para IA que incluyan tanto las redes neuronales entrenadas como la lógica informática tradicional. El futuro se puede parecer menos a una victoria de uno de los dos modelos (Deep Blue o las redes neuronales), y más a un enfoque Frankenstein: los dos métodos unidos.

Debido a que resulta probable que la IA esté aquí para quedarse, ¿cómo viviremos con ella? ¿Acabaremos derrotados al final, como Kasparov contra Deep Blue, por unas IA mucho mejores en las tareas de pensamiento con las que no podremos competir?

El propio Kasparov no lo cree. Poco después de su derrota ante Deep Blue, decidió que luchar contra una IA no tenía sentido. La máquina "pensaba" de una manera fundamentalmente inhumana, utilizando matemáticas de fuerza bruta. Siempre tendría mejor poder táctico a corto plazo.

Entonces, ¿por qué competir? ¿Por qué no colaborar?

Después de jugar contra Deep Blue, Kasparov inventó el "ajedrez avanzado", donde las personas y el silicio trabajan juntos. Una persona juega contra otra, pero cada una también maneja un ordenador portátil que ejecuta un software de ajedrez, para ayudar en los posibles movimientos del juego.

Cuando Kasparov comenzó a organizar las partidas de ajedrez avanzadas en 1998, descubrió rápidamente algunas diferencias fascinantes en el juego. Curiosamente, los aficionados no profesionales superaban las expectativas con su clasificación. En una partida de jugadores con ordenadores portátiles en 2005, dos de ellos ganaron el primer premio, superando a varios grandes maestros.

¿Cómo pudieron vencer a las mentes superiores del ajedrez? Porque entendieron mejor cómo colaborar con los ordenadores. Sabían cómo explorar opciones rápidamente y cuándo aceptar o no una sugerencia del sistema. Algunas ligas aún organizan estos torneos de ajedrez avanzado.

Kasparov argumenta que así es precisamente cómo debemos abordar el mundo emergente de las redes neuronales.

"El futuro consiste en encontrar las formas de combinar las inteligencias humana y artificial para alcanzar nuevas alturas y lograr cosas que ninguno podría conseguir solo por su cuenta", señala el gran maestro de ajedrez en un correo electrónico.

Las redes neuronales se comportan de manera diferente a los motores de ajedrez, por supuesto, pero muchos expertos están totalmente de acuerdo con la visión de Kasparov de la colaboración entre los humanos y la IA. Hassabis de DeepMind ve a la IA como un camino a seguir para la ciencia, que guiará a las personas hacia nuevos avances. "Creo que vamos a notar un gran florecimiento", asegura. "Empezaremos a ver cómo desafíos científicos a la altura de Premios Nobel caen uno tras otro". La empresa de Koller, Insitro, utiliza la IA de manera similar, como una herramienta de colaboración para los investigadores. "Estamos jugando un juego híbrido entre humanos y máquinas", señala Koller.

¿Llegará el momento en el que podamos construir una IA tan similar a la inteligencia humana en su razonamiento que las personas realmente tendrían menos que ofrecer, y la IA se haría cargo de todo el pensamiento? Quizá. Pero ni siquiera los científicos consultados, en la vanguardia de este campo, se atreven a predecir cuándo ocurrirá eso, si es que sucede.

Así que pensemos en el regalo final de Deep Blue, 25 años después de su famosa partida. Tras su derrota, Kasparov vislumbró cuál será el fin del juego entre la IA y los humanos. "Nos convertiremos en gestores de algoritmos y los utilizaremos cada vez más para impulsar nuestra producción creativa y nuestras almas aventureras", asegura.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores

  2. Meta ofrece gratis un gran conjunto de datos para acelerar el descubrimiento de nuevos materiales mediante IA

    Open Materials 2024 (OMat24) es uno de los mayores conjuntos de datos de entrenamiento de IA para la ciencia de materiales y está disponible de forma abierta y gratuita

  3. ChatGPT discrimina por raza y género según el nombre de usuario en el 0,1% de las interacciones

    MIT Technology Review accede en exclusiva a la investigación sobre estereotipos negativos en los grandes modelos lingüísticos de la empresa