.

Inteligencia Artificial

El superordenador que cabe en una maleta y su empresa pediría por Navidad

1

Cerca de 100 compañías han decidido pagar los casi 125.000 euros que cuesta el DGX-1 de Nvidia. Y a la mayoría de ellas les parece que sus beneficios compensan el elevado precio

  • por Elizabeth Woyke | traducido por Teresa Woods
  • 16 Julio, 2016


Foto: El superordenador DGX-1 de Nvidia está diseñado para entrenar módulos de aprendizaje profundo con mayor rapidez que los sistemas de computación convencionales. Crédito: Nvidia.

Para las empresas que lidian con complejos proyectos de datos gestionados por inteligencia artificial (IA), el nuevo sistema de Nvidia, al que denomina como un "superordenador de inteligencia artificial del tamaño de una caja" será un avance bien recibido.

El DGX-1 de Nvidia combina software de aprendizaje automático con ocho unidades de procesamiento gráfico (GPU, por sus siglas en inglés) de la gama más alta del fabricante de chips. Y sus primeros clientes afirman que tiene varias ventajas: les permite entrenar a sus módulos analíticos con mayor rapidez, habilita una experimentación mayor y podría facilitar avances en ciencia, cuidados médicos y servicios financieros.

Los científicos de datos se han estado aprovechando de las GPU para acelerar el aprendizaje profundo (que imita cómo los cerebros humanos procesan los datos) desde 2012. Pero muchos lamentan que los sistemas de computación actuales limitan su trabajo. Ordenadores más rápidos como el DGX-1 prometen hacer más potentes los algoritmos de aprendizaje profundo y permitir que los científicos de datos ejecuten modelos de aprendizaje profundo que antes no eran posibles. 

El DGX-1 no es una solución mágica para todas las empresas. Cuesta casi 125.000 euros, más que los sistemas que las compañías podrían montar por su cuenta a partir de componentes individuales. También incorpora una cantidad fija de memoria interna y tarjetas de GPU. Pero puesto que las piezas y los programas relevantes están preinstalados en una caja metálica del tamaño de una maleta mediana, y dado que empareja hardware avanzado con una rápida conectividad, Nvidia afirma que el DGX-1 es más fácil de configurar y analiza los datos más rápidamente que los sistemas de GPU anteriores. Además, la positiva acogida que ha logrado el DGX-1 durante sus primeros meses sugiere que otros sistemas de este tipo podrían ayudar a las organizaciones a ejecutar más experimentos de IA y refinarlos más rápidamente. Aunque el DGX-1 es el único sistema de clase por el momento, los socios de fabricación de Nvidia lanzarán nuevas versiones del superordenador a principios de 2017.

Menos de 100 empresas y organizaciones han comprado el DGX-1 desde que empezaron a enviarse en otoño, pero los primeros clientes confirman las afirmaciones de Nvidia sobre el sistema. La CEO del brazo de ciencias biológicas de la empresa de Londres (Reino Unido) BenevolentAI, BenevolentBio, Jackie Hunter, dice que su equipo de ciencias de datos empezó a entrenar modelos con el sistema el mismo día de su instalación. Asegura que el equipo fue capaz de desarrollar varios modelos a gran escala diseñados para identificar moléculas adecuadas para fármacos en un plazo de ocho semanas. Estos modelos se entrenan entre tres y cuatro veces más rápido con el DGX-1 que con los otros sistemas de GPU de la start-up, según Hunter. La responsable añade: "Teníamos múltiples modelos que tardamos semanas entrenar, pero ahora podemos hacerlo en días o incluso horas".

El Hospital General de Massacushetts (EEUU) tiene un DGX-1 en uno de sus centros de datos y ha pedido otro más. Dice que necesita superordenadores de GPU como el DGX-1 para procesar grandes cantidades de datos de distintos tipos. Según el Centro para Ciencias de Datos Clínicos del hospital, que está coordinando el acceso del sistema sanitario de PartnersHealthCare de la zona de Boston (EEUU) al DGX-1 del hospital, los proyectos de los que se encargará el superordenador incluirán imágenes de patología y radiología, historiales médicos electrónicos y datos genéticos.

"Si no sólo incorporas rayos X sino todo un conjunto de datos clínicas, de facturación y de redes sociales como indicadores de la salud de un paciente, realmente necesitas una gran potencia computacional de GPU para analizarlos", señala el director del centro, Mark Michalski.

Varias organizaciones más están desplegando DGX-1s para entender las enormes cantidades de datos asociadas a la atención sanitaria y las investigaciones médicas. Los laboratorios Argonne y Oak Ridge (ambos en EEUU) utilizan los suyos para estudiar los orígenes del cáncer e identificar nuevas terapias como parte del proyecto Disparo a la Luna de Cáncer del vicepresidente de Estados Unidos, Joe Biden.

Los DGX-1 también están resultando muy populares en el campo de la inteligencia artificial. Nvidia donó el primer DGX-1 que produjo a la empresa de IA sin ánimo de lucro OpenAI, y regaló otros nueve a universidades con departamentos de aprendizaje profundo líderes, incluidas la Universidad de Nueva York (EEUU), la Universidad de Stanford (EEUU) y la Universidad de Toronto (Canadá).

Algunas empresas multinacionales también están adquiriendo los suyos propios. SAP, que desarrolla programas de software para ayudar a los negocios a gestionar sus operaciones y relaciones con clientes, ha instalado DGX-1s en dos de sus centros globales de innovación, uno en Potsdam (Alemania) y otro en Ra'anana (Israel). También está ejecutando proyectos de prueba de concepto para identificar las mejores maneras de hacer uso de su escala y velocidad, explica el vicepresidente Markus Noga. Fidelity Labs, el brazo de I+D de Fidelity Investments, también tiene dos DGX-1s que planea usar para construir redes neuronales o sistemas informáticos que imitan en el cerebro humano, según el director de laboratorios Sean Belka.

Pero quienes ya poseen un DGX-1 probablemente seguirán empleando una mezcla de sistemas informáticos de alto rendimiento, incluida la computación en la nube y otros sistemas basados en GPU, en lugar de trasladar todo su trabajo de aprendizaje profundo al superordenador. Otras empresas podrían no comprar uno debido a su elevado coste inicial y configuración fija.

Para muchos, el precio compensa. BenevolentAI calcula que el coste de alquilar suficientes servidores de Amazon Web Services para igualar el rendimiento del DGX-1 superaría el precio de 125.000 euros en solo un año. El investigador del Laboratorio de IA de Baidu en Silicon Valley (EEUU) Greg Diamos reconoce que el superordenador es caro, pero señala que el precio refleja el trabajo de configuración y apoyo que proporciona Nvidia. El Laboratorio de IA de Baidu no tiene un DGX-1, pero está en proceso de mejorar su sistema con las mismas tarjetas de GPU y prevé que la nueva tecnología acelerará sus investigaciones de IA en 3,5 veces, según Diamos.

"Las empresas que desarrollan aplicaciones de aprendizaje profundo que no quieren tener que ocuparse del diseño del hardware y de la plataforma de software, probablemente considerarán el DGX-1", sugiere Diamos. Y matiza: "Pero yo creo que los clientes más grandes que ejecutan todos estos trabajos internamente comprarán GPU individuales y las integrarán en clústeres personalizados de computación de alto rendimiento en lugar de asumir el coste del DGX-1".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Al habla con la IA: el reto de lograr voces más diversas e inclusivas

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por inteligencias artificiales sean más inclusivas y reflejen una mayor variedad de dialectos para asegurar que las particularidades de cada lugar y cultura se preserven frente al avance tecnológico

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por IA sean más inclusivas y diversas
  2. Estos robots aprendieron a superar obstáculos reales desde un entorno virtual gracias a la IA

    Un nuevo sistema podría ayudar a entrenar robots usando exclusivamente mundos generados mediante inteligencia artificial

  3. Por qué la IA podría comerle la tostada a la computación cuántica

    Los rápidos avances en la aplicación de la inteligencia artificial a las simulaciones físicas y químicas hacen que algunos se pregunten si de verdad necesitamos ordenadores cuánticos