.

Computación

Un superordenador y un chip, las bazas de Google para controlar el hardware de la inteligencia artificial

1

La compañía presenta nuevas tecnologías pensadas para acelerar el desarrollo de las técnicas de aprendizaje automático, en las que ya destacaba, y posicionarse frente a empresas como Nvidia, una de las más importantes en el desarrollo de hardware para IA

  • por Will Knight | traducido por Teresa Woods
  • 19 Mayo, 2017

Si la inteligencia artificial (IA) está devorando rápidamente el software, entonces puede que Google tenga el mayor apetito de todos.

En la conferencia anual de desarrolladores de la empresa (Google I/O 2017), el CEO de Google, Sundar Pichai, presentó un nuevo procesador diseñado para llevar a cabo el tipo de aprendizaje automático que ha revolucionado la industria durante los últimos años (ver Aprendizaje profundo). El anuncio refleja la rapidez con la que la IA está transformando la propia empresa, y es la señal más fiable de que Google tiene planes de liderar el desarrollo de cada aspecto relevante del software y el hardware.

Puede que lo más importante, al menos para quienes trabajan en aprendizaje automático, sea que el nuevo procesador no solo funciona a una velocidad vertiginosa, sino que también puede entrenarse con una eficiencia increíble. Llamado Cloud TPU (Unidad de procesamiento de tensor para la nube), el nombre del chip se refiere al espacio de aprendizaje automático de fuente abierta de la compañía, TensorFlow.

El entrenamiento es una parte fundamental del aprendizaje automático. Para desarrollar un algoritmo capaz de reconocer perritos calientes dentro de las imágenes, por ejemplo, se le necesita preparar con miles de ejemplos de imágenes de perritos calientes -además de ejemplos sin perritos calientes- hasta que aprenda a reconocer la diferencia. Pero los cálculos necesarios para entrenar un modelo de estas características son tan sumamente complejos que hacerlo podría llevar días o semanas.

Pichai también anunció el desarrollo de superordenadores de aprendizaje automático a partir de varios Cloud TPU conectados a través de conexiones de datos de alta velocidad. El CEO de Google también aseguró que Google ya está desarrollando la Nube de Investigación con TensorFlow, la cual contendrá miles de TPU accesibles por internet.

"Estamos desarrollando lo que nosotros consideramos los primeros centros de datos de 'IA primero'", explicó Pichai durante su presentación. "Los Cloud TPU están optimizados tanto para el entrenamiento como la inferencia. Esto sienta las bases para importantes progresos [en IA]".

Google pondrá 1.000 sistemas de Cloud TPU a disposición de investigadores de inteligencia artificial dispuestos a compartir en abierto los detalles de su trabajo.

Pichai también presentó varias iniciativas de investigación en inteligencia artificial durante su ponencia. Estas iniciativas incluyen un esfuerzo dirigido a desarrollar algoritmos capaces de aprender a ejecutar el trabajo laborioso de afinar otros algoritmos de aprendizaje automático. Pichai comentó que Google está desarrollando herramientas de IA para el análisis de imágenes médicas, el análisis genómico y el descubrimiento de moléculas.

Justo antes de los anuncios de Pichai, el investigador de Google Jeff Dean dijo que la nueva oferta de Google podría ayudar a acelerar los procesos de inteligencia artificial. "Muchos investigadores destacados no tienen acceso a tanta potencia computacional como les gustaría", señaló.

La incursión de Google en hardware centrado en la IA y servicios en la nube está siendo impulsada en parte por sus esfuerzos por acelerar sus propias operaciones. El propio Google ahora emplea TensorFlow para alimentar las búsquedas, el reconocimiento de voz, la traducción y el procesamiento de imágenes. También fue utilizado por el programa AlphaGo, desarrollado por otra filial de Google, Deep Mind

Pero si actúa de forma estratégica, Google podría ayudar a impedir que otra empresa de hardware se vuelva demasiado dominante en el campo del aprendizaje automático. Nvidia, la empresa que produce los chips de procesamiento gráfico que tradicionalmente se han utilizado para el aprendizaje profundo, se está volviendo cada vez más destacada gracias a su cartera de productos.

Para dar una idea del alcance que tiene la mejora del rendimiento que ofrecen sus Cloud TPU, Google asegura que sus propios algoritmos de traducción podrían ser entrenados mucho más rápido con el nuevo hardware que con el actual. Lo que requeriría un día entero de entrenamiento con 32 de las mejores unidades de procesamiento gráfico actuales puede hacerse en una tarde con una octava parte de uno de sus POD con TPU.

"Estos TPU proporcionan unos asombrosos 128 teraflops, y están diseñados precisamente para el tipo de cálculos que impulsan el aprendizaje automático hoy", afirmó el director científico de Google Cloud y director del Laboratorio de IA de la Universidad de Stanford (EEUU), Fei-Fei Li, antes de la intervención de Pichai.

Un teraflop se refiere a un billón de operaciones de "coma flotante" por segundo, una medida del rendimiento de los ordenadores obtenido al hacerles realizar cálculos matemáticos. En contraste, el iPhone 6 es capaz conseguir alrededor de 100 gigaflops, lo que equivale a 1.000 millones de operaciones de coma flotante por segundo.

Google asegura que seguirá siendo posible diseñar algoritmos con otro hardware antes de trasladarlos a la nube de investigación de TensorFlow. "De esto trata la democratización del aprendizaje automático, de empoderar a los desarrolladores al proteger la libertad de diseño", añadió Li.

Un número cada vez mayor de investigadores han adoptado TensorFlow desde que Google lo lanzara en 2015. Google ya se jacta de que es el ámbito para aprendizaje automático más utilizado del mundo.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Google anuncia un hito hacia la computación cuántica sin errores

    Una técnica llamada “código de superficie” permite a los bits cuánticos de la empresa almacenar y manipular datos fielmente durante más tiempo, lo que podría allanar el camino a ordenadores cuánticos útiles

  2. El vídeo es el rey: bienvenido a la era del contenido audiovisual

    Cada vez aprendemos y nos comunicamos más a través de la imagen en movimiento. Esto cambiará nuestra cultura de manera inimaginable

    Dos personas creando contenido en formato vídeo
  3. Esta empresa quiere superar a Google e IBM en la carrera cuántica con un superordenador de fotones

    La empresa quiere construir una computadora que contenga hasta un millón de cúbits en un campus de Chicago