.

Inteligencia Artificial

La mejor inteligencia artificial aprueba 'por los pelos' un examen de 2º de la ESO

1

Un reto diseñado para mejorar los límites de la inteligencia artificial sugiere que nos queda mucho terreno por recorrer antes de hacer una máquinas realmente inteligentes

  • por Will Knight | traducido por Teresa Woods
  • 19 Febrero, 2016

Los progresos de la inteligencia artificial (IA) son cada vez más potentes y asombrosos. Y por ello, cada vez hay más voces que alertan sobre sus riesgos. Sin embargo, la realidad es que al ordenador más inteligente le resultaría complicado aprobar 2º de la ESO.

Una competición organizada por unos investigadores del Instituto Allen para la Inteligencia Artificial (AI2) retó a un grupo de programadores a desarrollar un programa capaz de superar una versión modificada de un examen de ciencias de ese curso. Los resultados de la competición fueron anunciados el pasado martes en la reunión anual de la Asociación para el Avance de la Inteligencia Artificial (AAAI, por sus siglas en ingés).

El ganador, un concursante de Israel llamado Chaim Linhart, combinó varias técnicas de aprendizaje de máquinas con grandes bases de datos de información científica para contestar correctamente al 59% de las preguntas. Al igual que los otros participantes, Linhart alimentó su sistema informático con cientos de miles de preguntas y sus respuestas correctas para que pudiese aprender a encontrarlas.

Una puntuación de casi el 60% podría decepcionar a la mayoría de los padres, pero es algo impresionante para un ordenador. El examen utilizado para la competición fue, sin embargo, ligeramente simplificado para que resultara práctico para los ordenadores. Se eliminaron los diagramas, por ejemplo, y sólo se incluyeron preguntas de respuesta múltiple.

El investigador de IA Oren Etzioni, que dirige AI2, explica que el reto aspiraba a animar a los investigadores a desarrollar un software que no sea sólo inteligente de una forma superficial.

En años recientes, los programas diseñados para realizar tareas específicas, especialmente los procesamientos visuales y de audio, han avanzado rápidamente gracias a unos algoritmos de aprendizaje de máquinas extremadamente eficientes, y generalmente basados en grandes redes neuronales. Un impresionante ejemplo reciente es un programa de Google diseñado para jugar al juego de mesa ingenioso y computacionalmente complejo Go (ver Google logra que un ordenador gane al juego más complejo de la historia).

Estos progresos han generado esperanzas, y temores, de que nos encontremos más cerca de lo que parece de la llegada de unas máquinas realmente inteligentes. Pero Etzioni cree que necesitará nuevas técnicas para lograr incluso unas competencias básicas en tareas más complejas, algo que los últimos resultados parecen confirmar. De igual manera, la mejor forma de medir los progresos de la IA, la prueba Turing, se ha mostrado demasiado fácil de falsificar mediante unos sencillos trucos.

El profesor de la Universidad Estatal de Oregón (EEUU) y el presidente de la AAAI, Thomas Dietterich, considera útil la competición AI2. Aunque coincide en que probablemente sea necesario combinar distintas técnicas de IA para lograr una nota mucho más alta en el examen en un futuro. "Inteligencia es una única palabra, pero se refiere a muchas cosas", explica. El responsable añade: "Una de las cosas que me gustan de esto es que subraya la amplitud de una forma que las otras pruebas no han hecho".

El científico cognitivo de la Universidad de Nueva York (EEUU) Gary Marcus, que ha fundado una start-up de IA llamada Geometric Intelligence, está desarrollando una competición de IA que incluirá varios componentes diferentes. "La inteligencia es una variable multidimensional", dice Marcus. "No va a haber una única prueba que sea una medida divina de la inteligencia".

Marcus añade que la competición AI2 consigue realzar el tamaño del reto que perdura para los investigadores de IA. "Se puede hacer algo mucho mejor que sólo adivinar al azar con algunas técnicas bastante primitivas pero, al mismo tiempo, el 60% dista mucho de realmente entender la ciencia".

La competición fue organizada mediante Kaggle, una popular plataforma para la coordinación de competiciones en las que científicos de datos luchan entre sí para crear el algoritmo más eficiente para una tarea determinada, como predecir qué productos se venderán mejor según las ventas anteriores o los resultados del mundial de fútbol. El año pasado, AI2 lanzó un enorme conjunto de datos de preguntas y respuestas que permitió a los participantes diseñar algoritmos para el examen (ver ¿Es este ordenador más listo que un niño de primaria?)

Durante una ponencia en la conferencia de la AAAI, Etzioni sugirió que definir una prueba más difícil, durante un período más largo, y con un mayor premio, podría inspirar a más investigadores a competir. Según sus propias palabras: "Creo que una competición más larga y una AI más 'profunda' podrían inspirar a más investigadores de IA a participar" y continuó: "Nuestra hipótesis es que no se pueden hacer este tipo de cosas con trucos baratos, que hay que hacer algo más inteligente".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos