Investigadores de OpenAI están desarrollando algoritmos capaces de aprender el lenguaje natural mediante el análisis de los mensajes de la web
¿Es posible que el secreto de desarrollar una inteligencia artificial (IA) resida en pasar horas y horas leyendo Reddit?
Esta es la pregunta que espera responder OpenAI, una organización sin ánimo de lucro respaldada por varias de las mentes más prodigiosas de Silicon Valley (EEUU). Para esta tarea, OpenAI utilizará un nuevo tipo de superordenador desarrollado por el fabricante de chips Nvidia. Los investigadores también están entrenando a los robots para que laven los platos mediante la experimentación, y están creando algoritmos capaces de aprender a jugar a una gran variedad de juegos de ordenador.
Este nuevo ordenador, el DGX-1, está optimizado para la versión de aprendizaje automático conocida como aprendizaje profundo, el cual suministra datos a una red de neuronas simuladas, y gracias al cual ya se han logrado gandes avances en IA durante los últimos años. El DGX-1 permitirá que los investigadores de IA enseñen a los sistemas de aprendizaje profundo de forma más rápida utilizando más datos. A modo de comparación aproximada, unos cálculos que tardarían 250 horas en procesarse mediante un ordenador tradicional, tardarían solo 10 horas con el DGX-1.
Foto: el CEO de Nvidia, Jen-Hsun Huang, entrega el primer DGX-1 a OpenAI, de Elon Musk. Crédito: imagen cedida por Nvidia.
En OpenAI, el aumento de rendimiento que ofrece este nuevo hardware se reflejaría de forma más inmediata en comprensión del lenguaje natural. Los investigadores de OpenAI están procesando hilos de mensajes del popular sitio web Reddit a través de algoritmos que generan una comprensión probabilística de la conversación. Si le suministran bastantes ejemplos, el modelo de lenguaje subyacente sería suficientemente bueno como para entablar una conversación por sí solo, o eso esperan los investigadores. Y el hardware permitirá procesar muchos más fragmentos pequeños de texto en el modelo y aplicar más potencia de cálculo al problema.
El científico investigador de OpenAI Andrej Karpathy cree que las técnicas modernas de aprendizaje automático suelen ser más inteligentes a medida que aumenta su tamaño. En un vídeo publicado recientemente por Nvidia, Karpathy afirma: "El aprendizaje profundo es un modelo muy específico porque, a medida que se escala el modelo, también funciona mejor".
El lenguaje sigue siendo un problema complejo para la inteligencia artificial, pero durante los últimos años los investigadores han logrado progresos al aplicar el aprendizaje profundo al problema. Por ejemplo, los investigadores de Google procesaron diálogos de películas con un sistema de aprendizaje profundo diseñado originalmente para realizar traducciones, y demostraron que era capaz de responder ciertas preguntas de forma bastante aceptable.
Los investigadores de OpenAI también planean explorar si es posible que un robot utilice el lenguaje para interactuar con personas reales. Sin embargo, esta investigación aún se halla en un estadio inicial, y será más sencillo escalar el trabajo utilizando Reddit. Karpathy considera que el nuevo hardware ayudaría a que los modelos entrenados con datos de Reddit procesasen años de conversaciones, en vez de solo unos meses.
Nvidia, que desarrolla procesadores de gráficos para videjuegos, se ha beneficiado del auge del aprendizaje profundo ya que su hardware está bien capacitado para los cálculos paralelos que exige este sistema. Durante los últimos años, la empresa ha buscado explotar esta ventaja, y el DGX-1 (cuyo coste de desarrollo ha sido de casi 1.800 millones de euros) es grosso modo un banco de procesadores de gráficos optimizados para aprendizaje profundo. Estos chips pueden procesar datos a gran velocidad (a un máximo de unos 170 teraflops, que equivale a 1.000 millones de cálculos aritméticos por segundo) y pueden compartir datos de manera más fácil.
El científico jefe de la empresa china de internet Baidu, Andrew Ng, ha podido observar con detenimiento el DGX-1, el cual planea utilizar también Baidu. Ng afirma: "Sus capacidades nos ofrecen nuevas formas de escalar nuestro proceso de entrenamiento. Esto nos permitirá emplear modelos de entrenamiento sobre conjuntos de datos más grandes, los cuales hemos descubierto que conducen al progreso de la IA".
OpenAI está involucrada en varias de las investigaciones más vanguardistas de IA. Además del aprendizaje profundo, sus investigadores están centrados en desarrollar algoritmos capaces de aprender mediante métodos de ensayo y error, un campo de investigación conocido como aprendizaje por refuerzo.
Open AI planea utilizar el aprendizaje por refuerzo para construir robots capaces de ejecutar tareas útiles en el entorno doméstico, aunque esto supone un desafío que requiere mucho tiempo (ver Por qué destinar mil millones de dólares para que un robot aprenda a barrer y fregar y El robot de limpieza necesita casas más simples).
Los investigadores de OpenAI también están explorando maneras de que los algoritmos de IA aprender de manera mucho más eficiente generando sus propios modelos, o teorías, sobre lo que significa un conjunto de datos. Un algoritmo podría aprender a jugar a diferentes juegos de ordenador si concluye que recoger monedas ayuda generalmente a aumentar la puntuación.
El director de investigación en OpenAI, Ilya Sutskever, una eminencia en IA, considera que trabajar en esta área conduciría a largo plazo hacia algoritmos que aprender de manera más eficaz. El experto afirma: "Una vez que se consigan todos estos avances, debería ser posible desarrollar agentes que logren metas más sofisticadas pero que requieran mucha menos experiencia".
OpenAI se fundó en 2015 gracias a una donación de 1.000 millones de dólares (unos 900 millones de euros) procedentes de los vips del sector: el CEO de Tesla y SpaceX, Elon Musk, y el presidente de Y Combinator, Sam Altman. El objetivo de esta organización sin ánimo de lucro es llevar a cabo investigaciones abiertas sobre IA y asegurarse de que beneficie a la humanidad.
EL CEO de Nvidia, Jen-Hsun Huang, confiesa que la decisión de conceder el primer DGX-1 a OpenAI refleja una confianza en los objetivos de OpenAI. En una entrevista, declaró Huang: "La estrategia de Nvidia es democratizar le IA. Querríamos que esta tecnología, con todo su potencial, vaya en una dirección positiva para la sociedad".