.

Saiman Chow

Inteligencia Artificial

La capacidad clave que la IA aún no tiene

1

La inteligencia artificial nunca alcanzará una inteligencia real hasta que no entienda la causalidad e identifique las relaciones causa-efecto que se esconden en los datos. Cuando lo logre, podríamos desarrollar un científico automatizado que indique cuáles son los experimentos más prometedores

  • por Brian Bergstein | traducido por Ana Milutinovic
  • 24 Febrero, 2020

En menos de una década, los ordenadores han desarrollado una capacidad increíble para diagnosticar enfermedades, traducir idiomas y transcribir el habla. También han aprendido a derrotar a los humanos en algunos complicados juegos de estrategia, crear imágenes fotorrealistas y sugerir respuestas útiles a nuestros correos electrónicos. Pero, a pesar de estos impresionantes logros, la inteligencia artificial (IA) aún tiene algunas limitaciones importantes.

Los sistemas de aprendizaje automático pueden ser engañados y confundirse ante situaciones desconocidas. Un coche autónomo puede desconcertarse ante un simple imprevisto que un conductor humano resolvería fácilmente. Un sistema de inteligencia artificial entrenado con mucho cuidado para llevar a cabo una tarea (identificar gatos, por ejemplo) debe volver a ser entrenado para aprender a realizar otra distinta (como identificar perros). En ese proceso, suelen perder algo de lo aprendido en la tarea original. Los informáticos denominan este problema como "olvido catastrófico".

Estas deficiencias tienen algo en común: todas ellas son el resultado de la incapacidad de la inteligencia artificial para entender la causalidad. Pueden identificar que algunas actividades se asocian con otras, pero no suelen ser capaces de averiguar qué es lo que provoca que algo ocurra directamente. Es como si supiéramos que la presencia de nubes aumenta la probabilidad de que llueva, pero no tuviéramos ni idea de que las nubes causan la lluvia.

Elias Bareinboim: Los sistemas de inteligencia artificial no tienen idea cuando se trata de causalidad.

Foto: Elias Bareinboim: Los sistemas de inteligencia artificial no tienen ni idea de la causalidad.

Comprender el principio de causa y efecto resulta fundamental para lo que conocemos como sentido común. Pero los actuales sistemas de inteligencia artificial "no tienen ni idea" de eso, asegura el director del nuevo Laboratorio de Inteligencia Artificial Causal de la Universidad de Columbia (EE. UU.), Elias Bareinboim, que lidera los esfuerzos para solucionar este problema. Su idea consiste en completar la investigación de inteligencia artificial con los conocimientos de la relativamente nueva ciencia de la causalidad, un campo creado en gran medida por el catedrático ganador del Premio Turing y mentor de Bareinboim, Judea Pearl.

Según Bareinboim y Pearl, aunque la capacidad de IA para detectar correlaciones como la de las nubes y la probabilidad de lluvia solo representa el nivel más simple del razonamiento causal, fue suficientemente importante como para impulsar el auge del aprendizaje profundo en la última década. Gracias a la gran cantidad de datos sobre situaciones similares, esta técnica es capaz de generar muy buenas predicciones. Un ordenador puede calcular la probabilidad de que un paciente con ciertos síntomas tenga una determinada enfermedad, porque ha aprendido con qué frecuencia otras miles o incluso millones de personas con los mismos síntomas tenían esa enfermedad.

Pero existe un creciente consenso en torno a la idea de que el progreso de la IA se detendrá si los ordenadores no mejoran su comprensión de la causalidad. Si las máquinas pudieran entender que ciertas cosas conducen a otras, no tendrían se verían obligadas a aprenderlo todo de nuevo cada vez: podrían aprovechar lo aprendido en un campo y aplicarlo a otro. Y si las máquinas pudieran usar el sentido común, les daríamos más libertad para trabajar por su cuenta, pues sabíamos que tendrían pocas probabilidades de cometer errores tontos.

La IA actual tiene una capacidad limitada para deducir el resultado de una acción determinada. En el aprendizaje reforzado (la técnica que ha permitido que las máquinas dominen juegos como el ajedrez y el Go), el sistema utiliza repetidas pruebas y errores para descubrir con qué movimientos tiene más probabilidades de ganar la partida. Pero este enfoque no funciona en los complicados entornos del mundo real. Una máquina ni siquiera es capaz de adquirir una comprensión general de cómo podría jugar a otros juegos.

Un nivel aún mayor de pensamiento causal sería la capacidad de razonar sobre por qué ocurre algo y hacer preguntas del tipo "¿qué pasaría si…?". Un paciente se muere durante un ensayo clínico; ¿la culpa fue de la medicina experimental o de otra cosa? La puntuación de las pruebas escolares está disminuyendo; ¿qué cambios podrían mejorarla? Este tipo de razonamientos van mucho más allá de la capacidad actual de la inteligencia artificial.

Hacer milagros

El sueño de dotar a los ordenadores de un razonamiento causal llevó en 2008 a Bareinboim de Brasil a Estados Unidos. Cuando terminó su máster en ciencias de la computación en la Universidad Federal de Río de Janeiro (Brasil) aprovechó la oportunidad de estudiar con el científico informático y estadístico de la Universidad de California en Los Ángeles (UCLA) Judea Pearl. Este investigador de 83 años es el experto por excelencia en inferencia causal, y su trabajo muestra por qué resulta difícil crear la IA que entiende la causalidad.

Incluso los mejores científicos tienden a malinterpretar las correlaciones como señales de causalidad o hacer justo lo contrario y dudar a la hora de aceptar una causalidad que está justificada. En la década de 1950, por ejemplo, algunos prominentes estadísticos enturbiaron las aguas en torno a si el tabaco causaba cáncer. Argumentaron que sin un experimento que asignara aleatoriamente a las personas a ser fumadores o no fumadores, nadie podría descartar la posibilidad de que algo desconocido, tal vez estrés o algún gen, causara que las personas fumaran y tuvieran cáncer de pulmón.

Al final, el hecho de que fumar provoca cáncer se comprobó definitivamente, pero hubiera sido preferible que no se hubiera tardado tanto en lograrlo. Desde entonces, Pearl y otros estadísticos han ideado un enfoque matemático para identificar qué hechos serían necesarios para respaldar una afirmación causal. El método de Pearl muestra que, dada la prevalencia del tabaquismo y del cáncer de pulmón, un factor independiente que cause ambos sería extremadamente improbable.

Las fórmulas de Pearl también ayudan a identificar cuándo las correlaciones no permiten determinar la causalidad. El director de Sistemas Inteligentes del Instituto Max Planck (Alemania), Bernhard Schölkopf, está especializado en técnicas de IA causal. El experto señala que es capaz de predecir la tasa de natalidad de un país si conoce su población de cigüeñas. Esto no se debe a que las cigüeñas entreguen a los bebés ni a que los bebés atraigan a las cigüeñas, sino probablemente porque el desarrollo económico provoca más bebés y más cigüeñas. Pearl ha ayudado a los estadísticos y científicos informáticos a resolver estos problemas, según Schölkopf.

Foto: Judea Pearl: Su teoría del razonamiento causal ha transformado la ciencia.          

El trabajo de Pearl también ha conducido al desarrollo de las redes bayesianas causales, el software que analiza grandes cantidades de datos para detectar qué variables parecen tener una mayor influencia en otras. Por ejemplo, la compañía GNS Healthcare utiliza esta técnica para asesorar a los investigadores sobre los experimentos que parecen más prometedores.

En un proyecto, GNS trabajó con los investigadores que estudian el mieloma múltiple, un tipo de cáncer de la sangre. Los investigadores querían saber por qué después de recibir un trasplante de células madre (un tratamiento común), algunos pacientes vivían con la enfermedad más que otros. El software revolvió los datos con 30.000 variables y señaló algunas que parecían ser especialmente causales. Los bioestadísticos y los expertos en la enfermedad se centraron en una en particular: el nivel de una determinada proteína en los cuerpos de los pacientes. Luego, los investigadores realizaron un ensayo clínico dirigido para ver si los pacientes con esta proteína realmente se beneficiaron más del tratamiento. "Es mucho más rápido que buscar por aquí y por allá en el laboratorio", afirma la cofundadora de GNS Iya Khalil.

No obstante, las mejoras que Pearl y otros académicos han logrado en la teoría causal aún no han tenido mucho impacto en el aprendizaje profundo, que identifica las correlaciones sin prestar mucha atención a la causalidad. Así que Bareinboim trabaja para dar el siguiente paso: que los ordenadores se conviertan en herramientas más útiles para las exploraciones causales humanas.

Pearl cree que la IA nunca tendrá una inteligencia real si no adquiere una profunda comprensión de la relación causa y efecto. Si la tuviera, podría ejercer la introspección, que es la base de la cognición

Uno de sus sistemas, todavía en fase beta, puede ayudar a los científicos a determinar si tienen suficientes datos para responder a una pregunta causal.  El antropólogo de Antropología Evolutiva del Instituto Max Planck Richard McElreath utiliza el software para investigar por qué los humanos pasan por la menopausia (somos los únicos simios que la tienen).

La hipótesis consiste en que la disminución de la fertilidad en las mujeres mayores benefició a las primeras sociedades humanas porque las mujeres que se esforzaron más por cuidar a sus nietos finalmente tuvieron más descendientes. Pero, ¿qué evidencia podría existir hoy en día para respaldar la afirmación de que a los niños les va mejor con los abuelos? Los antropólogos no pueden simplemente comparar los resultados educativos o médicos de los niños que han vivido con sus abuelos y los que no. Existe lo que los estadísticos llaman factores de confusión: las abuelas suelen vivir más si tienen nietos que necesitan más ayuda. El software de Bareinboim puede ayudar a McElreath a descubrir qué estudios sobre niños que crecieron con sus abuelos tienen menos factores de confusión y podrían resultar valiosos para responder a su pregunta causal. "Es un gran paso adelante", asegura McElreath.

La última milla

Bareinboim habla rápido y suele gesticular mucho. A mediados del semestre, en octubre, lo visité en Columbia (EE. UU.) pero parecía que se acababa de instalar, no había casi nada en las paredes ni libros en las estanterías, solo un ordenador y una pizarra blanca con tantas ecuaciones y diagramas que parecía un detalle de un dibujo animado sobre un profesor loco.

No dio mucha importancia al estado provisional del despacho, pues había estado muy ocupado dando charlas sobre la revolución causal. Bareinboim cree que un trabajo como este ofrece la oportunidad no solo de incorporar el pensamiento causal en las máquinas, sino también de mejorar el de los seres humanos.

Hacer que la gente preste más atención a la causalidad no es necesariamente mucho más fácil que enseñarla a las máquinas, subraya. Los investigadores en una amplia gama de disciplinas, desde la biología molecular hasta las políticas públicas, a veces se dan por satisfechos al descubrir las correlaciones que en realidad no están enraizadas en las relaciones causales. Por ejemplo, algunos estudios sugieren que beber alcohol acorta la vida, mientras que otros indican que el consumo moderado resulta bueno e incluso beneficioso, y hasta hay otras investigaciones que han encontrado que los que beben mucho alcohol viven más que quienes no lo hacen. Este fenómeno, conocido como "crisis de la reproducibilidad", surge no solo en medicina y en nutrición sino también en psicología y economía. Bareinboim explica: "Se puede ver la fragilidad de todas estas inferencias. Los resultados cambian cada dos años".

Argumenta que cualquiera que se pregunte "qué pasaría si", como los investigadores médicos que realizan ensayos clínicos, los sociólogos que desarrollan programas piloto, incluso los editores web que preparan pruebas A/B, debería empezar no solo reuniendo datos, sino también utilizando la lógica causal de Pearl y un software como el de Bareinboim para determinar si los datos disponibles podrían responder a una hipótesis causal. Cree que con el tiempo esto conducirá a un software de "científico automatizado": una persona podría imaginar una pregunta causal que quisiera perseguir, y el software combinaría la teoría de la inferencia causal con las técnicas de aprendizaje automático para descartar los experimentos que no responderían a esa pregunta. Eso podría salvar a los científicos de una gran cantidad de costosos callejones sin salida.

Bareinboim describió esta visión mientras estábamos sentados en el vestíbulo de la Sloan School of Management del MIT (EE. UU.), después de una charla que dio el otoño pasado. El científico me dijo: "Tenemos un edificio aquí en el MIT con, no sé, 200 personas". ¿Cómo deciden esos científicos sociales, o cualquier otro científico en cualquier lugar, qué experimentos realizar y qué puntos de datos recopilar? Siguiendo su intuición: "Intentan ver a dónde conducirán las cosas, en función de su comprensión actual", añadió.

Se trata de un enfoque inherentemente limitado, asegura, porque los científicos que diseñan un experimento solo pueden considerar un puñado de variables a la vez. Pero un ordenador es capaz de ver la interacción de cientos o miles de variables. Codificado con "los principios básicos" del cálculo causal de Pearl y capaz de calcular lo que podría suceder con nuevos conjuntos de variables, un científico automatizado podría sugerir a qué experimentos deberían dedicar su tiempo los investigadores humanos. Quizás alguna política pública que se ha demostrado que funciona solo en Texas (EE. UU.) podría funcionar en California (EE. UU.) si se apreciaran mejor algunos factores causalmente relevantes. Los científicos ya no "harían experimentos en la oscuridad", explicó Bareinboim.

Tampoco cree que eso esté muy lejos de cumplirse: "Estamos en la última milla antes de lograr la victoria".

¿Qué pasaría si…?

Esa última milla probablemente requerirá técnicas que no han hecho más que empezar a desarrollarse. Por ejemplo, el informático de la Universidad de Montreal (Canadá) que compartió el Premio Turing 2018 por su trabajo en el aprendizaje profundo, Yoshua Bengio, intenta que las redes neuronales, el software en el corazón del aprendizaje profundo, hagan "meta-aprendizaje" para descubrir las causas de las cosas.

Actualmente, si quisiéramos que una red neuronal detectara cuándo la gente baila, le mostraríamos muchas imágenes de bailarines. Si quisiéramos que identificara cuándo las personas corren, le mostraríamos muchas imágenes de corredores. El sistema aprendería a distinguir a los corredores de los bailarines mediante la identificación de las características diferentes en las imágenes, como las posiciones de las manos y de los brazos. Pero Bengio señala que el conocimiento fundamental sobre el mundo se puede obtener analizando las cosas que son similares o "invariables" en los conjuntos de datos. Tal vez una red neuronal podría aprender que los movimientos físicos de las piernas permiten tanto correr como bailar. Quizá después de ver estos ejemplos y muchos otros que muestran a las personas saltando un poco, una máquina finalmente entendería algo sobre la gravedad y cómo condiciona el movimiento humano. Con el tiempo y con suficiente meta-aprendizaje sobre variables consistentes en los conjuntos de datos, un ordenador podría obtener un conocimiento causal que podría reutilizar en muchos ámbitos.

Por su parte, Pearl cree que la IA nunca tendrá una inteligencia real si no adquiere una profunda comprensión de causa y efecto. Aunque el razonamiento causal no sería suficiente para una inteligencia artificial general, sí que resulta necesario, según él, porque permitiría la introspección, que es la base de la cognición. Las preguntas del tipo "¿qué pasaría si…? son los componentes básicos de la ciencia, de las actitudes morales, del libre albedrío y de la conciencia", asegura Pearl.

Pearl no quiso predecir cuánto tiempo tardarán los ordenadores en obtener las poderosas habilidades del razonamiento causal. Y subrayó: "No soy un futurista". En cualquier caso, cree que el primer paso debería consistir en desarrollar herramientas de aprendizaje automático que combinen los datos con el conocimiento científico disponible. El científico concluyó: "Tenemos mucho conocimiento en el cráneo humano que no se utiliza".

*Brian Bergstein, fue editor de 'MIT Technology Review', es editor adjunto de opinión en 'The Boston Globe'.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  2. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  3. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA