Inteligencia Artificial
El nuevo éxito de Google hacia una inteligencia artificial que razona como los humanos
Dos nuevas investigaciones de DeepMind presentan máquinas con aprendizaje relacional, capaz de establecer relaciones entre los objetos que ve, una cualidad básica del proceso cognitivo del cerebro humano
AlphaGo y los vehículos autónomos son increíblemente inteligentes, pero ninguno de ellos supone un gran salto hacia una inteligencia artificial (IA) general. Afortunadamente, algunos investigadores del campo están desarrollando formas de ampliar la inteligencia de las máquinas. Los investigadores de DeepMind, que desarrollaron la máquina jugador y campeona de Go llamada AlphaGo, están trabajando en un enfoque que podría ser crucial para conseguir que las máquinas sean tan inteligentes como nosotros.
En dos trabajos publicados la semana pasada y tratados por The New Scientist, los investigadores de la filial del Alphabet describen su trabajo intentando enseñar el razonamiento relacional a los ordenadores. Se trata de una capacidad cognitiva fundamental para la inteligencia humana.
En pocas palabras, el razonamiento relacional es la capacidad de considerar las relaciones entre diferentes representaciones mentales, como objetos, palabras e ideas. Este tipo de razonamiento es crucial para el desarrollo cognitivo humano y vital para resolver cualquier problema.
La mayoría de los sistemas de aprendizaje automático actuales no se basan en entender la relación entre conceptos. Un sistema de visión automática puede identificar un perro o un gato en una foto, por ejemplo, pero no entiende que el perro está persiguiendo al gato.
Los dos sistemas desarrollados por DeepMind lo consiguen al modificar los métodos de aprendizaje automático existentes para hacerlos capaces de aprender acerca de las relaciones físicas entre objetos estáticos, y también el comportamiento de objetos en movimiento con el paso del tiempo.
Demostraron la primera capacidad mediante CLEVR, un conjunto de datos de objetos simples. Después del entrenamiento, preguntan al sistema si un objeto está delante de otro o cuál es el objeto más cercano. Sus respuestas son drásticamente mejores que cualquier otra e incluso superan el rendimiento humano en algunos casos.
En el segundo trabajo, los investigadores muestran cómo un sistema de aprendizaje automático modificado de forma similar puede aprender a predecir el comportamiento de objetos simples en dos dimensiones. Es algo que los humanos hacemos constantemente en tres dimensiones, cuando se atrapa una pelota o se conduce un coche, por ejemplo. De hecho, los experimentos psicológicos demuestran que los humanos empleamos un motor de "física intuitiva" para predecir los efectos de una acción sobre los objetos. Es un proceso mucho más sofisticado y potente que el de reconocer los objetos que conforman una escena.
Tal vez los resultados no supongan un avance revolucionario, pero son justo el tipo de investigación que hace falta. Todas las impresionantes capacidades de la inteligencia artificial actual dependen de entrenar una máquina para que aprenda a realizar una tarea increíblemente concreta. Sin nuevas ideas, los sistemas de AI seguirán siendo incapaces de hacer cosas como mantener una conversación real o resolver problemas difíciles por su cuenta. El profesor de psicología de la Universidad de Harvard (EEUU) Sam Gershman, que estudia la inteligencia, dice que deberíamos pensar en imitar más la inteligencia humana si queremos que la inteligencia artificial se asemeje a la nuestra.
Por correo electrónico, el experto explica a MIT Technology Review: "Nuestros cerebros representan el mundo en términos de relaciones entre objetos, agentes y eventos. Representar el mundo de esta manera limita los tipos de inferencias que extraemos de los datos de forma masiva, lo que dificulta el aprendizaje de algunas cosas pero facilita el de otras. Por lo tanto, en este sentido, el trabajo es un paso en la dirección correcta: construir unas restricciones humanas que permitan a las máquinas aprender más fácilmente a ejecutar tareas naturales para los seres humanos".
Pero Gershman tampoco quiere exagerar la importancia del trabajo de DeepMind. El experto matiza: "Que el aprendizaje automático rinda mucho mejor que las personas en una tarea determinada no implica que tenga una inteligencia superhumana". El razonamiento relacional es también un elemento de la inteligencia humana. Junto a unos compañeros, Gershman escribió un artículo el año pasado que explora otros aspectos de la inteligencia humana de los que la inteligencia artificial actual carece. Además del razonamiento relacional, por ejemplo, explican que los seres humanos son capaces de componer, o construir nuevas ideas a partir del conocimiento existente para resolver problemas. "El razonamiento relacional es una condición necesaria pero no suficiente para la inteligencia humana", concluye Gershman.
(Para saber más: New Scientist)