.

Inteligencia Artificial

El nuevo gran reto de la inteligencia artificial: colaborar consigo misma

1

La última competición de Microsoft intenta buscar las mejores estrategias para que distintos sistemas cooperen entre sí para lograr mejores resultados. El mejor mecanismo para lograrlo ha consistido en combinar varios enfoques de entrenamiento, pero ninguno se alza como el mejor

  • por Will Knight | traducido por Teresa Woods
  • 26 Junio, 2017

Pelear contra un cerdo, aunque sea virtual, resulta mucho más fácil si se tiene la ayuda de un amigo. Esta es la conclusión a la que ha llegado un concurso organizado por unos investigadores de Microsoft para probar cómo los sistemas de inteligencia artificial (IA) pueden cooperar entre ellos para resolver problemas difíciles. Pero cómo se colabora con este compañero anticerdos es otra cuestión.

La competición aborda un área de la inteligencia artificial que ha recibido poca atención hasta ahora. Los investigadores de IA suelen desarrollar software capaz de realizar una tarea humana específica, como jugar al ajedrez o al Go, para medir su rendimiento en función de capacidad de derrotar a un jugador humano. Sin embargo, una gran parte de la inteligencia humana implica comunicación, inteligencia social y la teoría de la mente, que es la capacidad de interpretar y anticiparse a las intenciones de otro ente inteligente.

El proyecto da pistas sobre cómo los seres humanos y los sistemas de inteligencia artificial podrían llegar a colaborar algún día para lograr más que la suma de sus partes. "Esto forma parte de una tendencia más amplia de replantear la inteligencia artificial como una inteligencia aumentada en lugar de como una mera inteligencia artificial", explica el director ejecutivo del Instituto Allen para la Inteligencia Artificial, Oren Etzioni.

Para el concurso de Microsoft, los sistemas de inteligencia artificial trabajaron juntos dentro del Proyecto Malmo, una versión especial del juego abierto para ordenador Minecraft. Un investigador de Microsoft diseñó este entorno para importar y ejecutar pruebas para técnicas distintas de inteligencia artificial. Harán falta muchos más avances para que los sistemas de IA sean capaces de formar equipos, pero el concurso ofrece una manera de probar algunas ideas.

Para la competición, los agentes debían intentar controlar y atrapar a un bravo cerdo virtual, ya fuera por su cuenta o con la ayuda otro sistema. Los mejores equipos del Reto de IA Colaborativa Malmo utilizaron métodos avanzados del aprendizaje automático como el aprendizaje profundo para lograr que sus sistemas aprendieran a trabajar en equipo.  Para ello fueron necesarias grandes cantidades de datos. Pero algunos participantes también se decantaron por enfoques más antiguos y menos populares que implican entrenar al sistema con información codificada a mano.

Los ganadores del concurso, un equipo de la Universidad de Oxford (Reino Unido), utilizaron el aprendizaje reforzado, una especie de aprendizaje automático inspirado en la forma en la que aprenden los animales a través de la experimentación. Sus agentes recibían un refuerzo positivo cada vez que conseguían doblegar al cerdo de forma colabotativa.

La investigadora principal del proyecto Malmo de Microsoft, Katja Hofmann, señala que muchos equipos combinaron diferentes enfoques. "Ningún enfoque por sí solo se ha posicionado como claro ganador", asegura, y añade que es probable que los enfoques híbridos "ofrezcan los caminos más prometedores para futuras investigaciones".

El desafío de la lucha contra cerdos se basa en un experimento mental conocido como la caza del ciervo, que explora conceptos de la teoría de juegos, una rama de las matemáticas que se ocupa de la cooperación y las estrategias de negociación. La idea es que dos cazadores deben decidir entre cazar una liebre individualmente o trabajar en equipo para lograr hacerse con un ciervo. Los mejores equipos del reto, en función de las puntuaciones obtenidas y la novedad de sus trabajos, recibirán una beca de investigación de 18.000 euros y una plaza en la Escuela de Verano de Investigaciones de IA de Microsoft.

El profesor de la Universidad de Washington (EEUU) Pedro Domingos, que estudia el aprendizaje automático y la minería de datos, advierte que el entrenamiento del software de inteligencia artificial dentro de entornos simulados tiene sus inconvenientes. El software puede optimizarse demasiado para ese entorno concreto, lo que puede volverlo inútil en un contexto del mundo real, explica. Aunque los mundos simulados más sofisticados están empezando a evitar este fenómeno.

Domingos añade que la cooperación entre seres humanos es tan compleja y sutil que resulta difícil imaginar que el proyecto de Microsoft logre reproducirla. Sin embargo, a pesar de cierto escepticismo, se siente alentado por el proyecto. El experto concluye: "Seguimos en los primeros días de este sector, y Minecraft es un entorno con muchas posibilidades. [Es] más rico que las cosas que se han utilizado antes, por lo que desde luego parece que merece la pena intentarlo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  2. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  3. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA