Uno de los investigadores principales del software de Google afirma que un enfoque similar al que logró convertirle en maestro del Go junto a la teoría de juegos lo hace tan eficaz como un experto jugador humano en el Texas hold´em
Uno de los científicos responsables de AlphaGo, el software de Google DeepMind que barrió recientemente a uno de los mejores jugadores de Go del mundo, afirma que el mismo enfoque podría producir un bot jugador de póker sorprendentemente competente.
A diferencia de los juegos de mesa como el Go o el ajedrez, el póker es un juego de "informaciones imperfectas" y por tanto se ha demostrado aún más resistente a la informatización que el Go.
La pericia en el póker requiere elaborar una estrategia basada en las cartas de la mano del jugador y la conjetura acerca de las cartas que tienen los oponentes. Los jugadores de póker intentan "leer" el comportamiento de los demás con una combinación de estadística y unas pistas conductuales más sutiles.
Foto: La inteligencia artificial: una especie de magia. Crédito: Max Mayorov (Flickr).
Por eso, el desarrollo de un bot jugador de póker eficaz mediante el aprendizaje de máquinas podría resultar importante para las aplicaciones del mundo real de la inteligencia artificial (IA). El juego es relevante para la teoría de juegos, aplicada a situaciones que incluyen la negociación y la cooperación.
Aunque Go es increíblemente complejo y sus principios estratégicos no resultan fáciles de programar, AlphaGo al menos fue capaz de visualizar cada parte del juego. El programa empleó una mezcla de dos técnicas de IA, el aprendizaje reforzado profundo y el análisis de árbol, para elaborar movimientos ganadores de Go. El aprendizaje reforzado profundo incluye el entrenamiento de una gran red neuronal mediante el uso de recompensas positivas y negativas, y el análisis de árbol es una estrategia matemática para anticiparse a las fases posteriores de una partida.
El investigador principal de AlphaGo, David Silver, y ponente de la Universidad Colegio de Londres (Reino Unido), publicó un trabajo este mes que describe los esfuerzos por desarrollar un bot jugador de póker con el uso de técnicas similares.
En colaboración con el estudiante e investigador de la misma universidad Johannes Heinrich, Silver empleó el aprendizaje reforzado profundo para generar una estrategia de juego tanto para Leduc, una versión simplificada del póker que incluye una baraja de tan sólo seis cartas, como para el Texas hold´em, la forma más popular del juego. Con el Leduc, el software alcanzó el equilibrio de Nash, que representa el enfoque óptimo según la definición de la teoría de juegos. En el Texas hold´em, igualó el rendimiento de un experto jugador humano.
Mientras tanto, un equipo de investigadores de la Universidad de Oxford (Reino Unido) y Google DeepMind han dirigido su atención hacia dos juegos de cartas Magic: The Gathering y Hearthstone.
Estos juegos incluyen unas cartas que representan diferentes hechizos, armas o criaturas que se pueden emplear contra los adversarios. Este trabajo es mucho más preliminar, y simplemente incluyó el entrenamiento de una red neuronal para interpretar la información mostrada en cada carta, que puede ser o estructurada, en cuanto a un color o número específico, o no estructurado, como un texto que describa lo que sucederá cuanto entre la carta en juego.
Aun así, está claro que el equipo de IA de Google no ha terminado de desarrollar un bot de juego sobrehumano.
(Para saber más: Kotaku, The Guardian, Cinco lecciones del histórico triunfo de AlphaGo sobre la inteligencia humana)