.

Inteligencia Artificial

No se asuste si la IA de Google gana al campeón mundial de Go

1

El programa ya ha vencido al líder europeo, una hazaña que cada vez se come más terreno del conocimiento humano. Pero las máquinas aún están muy lejos de hacer cosas más humanas

  • por Will Knight | traducido por Teresa Woods
  • 10 Marzo, 2016

Puede que estemos a punto de ser testigos de una increíble demostración de la capacidad cada vez mayor de los programas de inteligencia artificial (IA). AlphaGo, un programa desarrollado por investigadores de IA de Google, se está preparando para enfrentarse al mejor jugador de Go del mundo, Lee Se-dol.

El enfrentamiento se celebrará esta semana en Corea del Sur, donde Go goza de una enorme popularidad. Será fascinante porque se trata de un juego tan complejo e ingenioso que muchos expertos creían que llevaría años, si no décadas, habilitar a los ordenadores para poder competir con los mejores jugadores humanos. Los jugadores exitosos deben aprender, mediante años de práctica, a reconocer los movimientos más útiles, y a menudo les resulta difícil explicar por qué una posición determinada parece ventajosa.

Y aun así, este año un equipo de Google DeepMind, una filial creada cuando Google adquirió una empresa británica de IA en 2014, publicó los detalles de un programa informático que fue capaz de ganar frente a Fan Hui, el campeón de Europa de Go y un jugador profesional, en una partida celebrada a puerta cerrada.

Foto: Lee Se-dol (a la derecha), un legendario jugador surcoreano de Go, posa junto al investigador de Google Demis Hassabis antes del Reto Google DeepMind en Seúl. Crédito: Jung Yeon-Je (Getty).

El desarrollo de AlphaGo incluyó la combinación de varias redes neuronales simuladas con otras técnicas de IA para que el programa pudiese aprender al estudiar miles de partidas anteriores y también pudiera practicar contra sí mismo.

Si AlphaGo vence a Se-dol, la hazaña probablemente será considerada como un momento triste para la humanidad y otra señal de que los ordenadores pronto podrían empezar a invadir más terrenos humanos al dominar otras aptitudes que desde hace tiempo consideramos que están fuera del alcance de la automatización.

Así podría ser, hasta cierto punto; pero que no cunda el pánico aún. Tan ingenioso como es, Go todavía representa un área muy estrecha de pericia con unas reglas claramente definidas. Además, AlphaGo no sabe hacer ninguna otra cosa (aunque las técnicas empleadas en su desarrollo podrían ser aplicadas a otros juegos de mesa). Hay personas que argumentan que una mejor manera de medir los progresos hacia la IA generalizada sería pedir a los ordenadores que asuman retos mucho más amplios y complejos, como aprobar un examen de ciencia de primaria. Y, afortunadamente, es justo el tipo de cosas que se les sigue dando fatal a los programas de IA.

(Fuentes: Nature, Google logra que un ordenador gane al juego más complejo de la historia)

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos