Ambas compañías trabajan en un nuevo diseño más eficiente enfocado a la ejecución de algoritmos de inteligencia artificial. El dispositivo aumentaría la potencia de cálculo y reduciría la energía necesaria, lo que abarataría el uso del aprendizaje profundo
Intel y Facebook están colaborando en el desarrollo de un chip que podría lograr que a las grandes empresas les salga más barato aplicar inteligencia artificial (IA) en sus negocios.
El dispositivo debería ser más eficiente a la hora de ejecutar los algoritmos de aprendizaje automático previamente entrenados, lo que significa que haría falta menos hardware y menos energía para que la IA realice tareas útiles.
Intel presentó el nuevo chip de IA, así como su colaboración con Facebook, en el reciente Consumer Electronics Show (CES) en Las Vegas (EE.UU.). El anuncio muestra cómo el software y el hardware de IA se entrelazan a medida que las empresas buscan cierta ventaja en el desarrollo y la implementación de IA.
El nuevo chip de IA de "inferencia" podría ayudar a Facebook y a otras empresas a implementar el aprendizaje automático de manera más eficiente y económica. La red social utiliza la IA en muchas tareas, como etiquetar las personas en imágenes, traducir publicaciones de un idioma a otro y detectar contenido prohibido. En términos de tiempo y energía, estas funciones resultan más costosas si se ejecutan en un hardware genérico.
Intel pondrá el chip a disposición de otras compañías a lo largo de 2019. Actualmente está muy por detrás del líder del mercado de hardware de inteligencia artificial, Nvidia, y se enfrenta a la competencia de una gran cantidad de creadores de chips.
El vicepresidente de Productos de Inteligencia Artificial de Intel, Naveen Rao, afirmó antes del comunicado que el chip sería más eficiente que cualquier otro disponible, aunque no proporcionó cifras de rendimiento específicas.
Facebook confirmó que ha estado trabajando con Intel, pero se negó a ofrecer más detalles sobre el acuerdo y a describir su papel en la colaboración. Se rumorea que Facebook también está explorando sus propios diseños de chips de IA.
Rao explicó que el chip sería compatible con cualquier software importante de IA, pero la participación de Facebook muestra lo importante que es para los diseñadores de silicio colaborar con los ingenieros de software de IA. Los investigadores de IA de Facebook desarrollan una serie de paquetes de software de IA ampliamente utilizados. La compañía también tiene grandes cantidades de datos para entrenar y probar el código del aprendizaje automático.
El analista sénior de Linley Group Mike Demler, que supervisa la industria de los semiconductores, señala que los competidores podrían disponer de nuevos diseños comparables con el de Intel cuando la empresa comience la producción del chip. Añade que Intel lleva varios años por detrás de sus rivales y necesita demostrar "un gran avance" con el nuevo chip.
La explosión de la demanda de chips de IA para aplicar aprendizaje profundo, una poderosa técnica de aprendizaje automático que consiste en entrenar ordenadores para hacer tareas útiles al proporcionarles grandes cantidades de datos, y que empezó hace un par de años pilló a Intel por sorpresa.
Con el aprendizaje profundo, los datos se introducen en una red neuronal muy grande, y los parámetros de la red se ajustan hasta lograr el resultado deseado. A partir de ese momento, la red entrenada se puede usar para tareas como el reconocimiento de personas en secuencias de vídeo. Los cálculos necesarios para el aprendizaje profundo se ejecutan de manera relativamente ineficiente en los chips de ordenadores de propósito general. Funcionan mucho mejor en los chips que dividen los cómputos, lo que incluye los tipos de procesadores gráficos en los que Nvidia lleva especializándose mucho tiempo. Como resultado, Nvidia tuvo un gran avance en los chips de IA y aún vende la gran mayoría de hardware de alta gama para IA.
Intel inició el desarrollo de su chip de IA cuando adquirió una start-up llamada Nervana Systems en 2016. Un año más tarde, Intel anunció su primer chip de IA, el procesador de redes neuronales Intel Nervana (NNP). El último chip de Intel está optimizado para ejecutar algoritmos que ya han sido entrenados, lo que debería hacerlo más eficiente. El nuevo chip se llama NNP-I (la I es de "inferencia").
En los últimos años se ha visto un aumento drástico en el desarrollo del nuevo hardware para la IA. Una gran cantidad de start-ups están compitiendo para desarrollar chips optimizados para la inteligencia artificial. Esto incluye a Graphcore, una compañía británica que recientemente recaudó unos 173 millones de euros en inversión, y una variedad de compañías chinas como Cambricon, Horizon Robotics y Bitmain.
Intel también compite contra empresas como Google y Amazon, que están desarrollando sus propios chips para potenciar sus servicios de IA en la nube. Google reveló en 2016 que estaba desarrollando un chip para su software de aprendizaje profundo TensorFlow. Amazon anunció el diciembre pasado que había desarrollado sus propios chips de IA, incluido uno dedicado a la inferencia.
Puede que Intel haya llegado tarde al juego y necesite ayuda de Facebook, pero la compañía tiene una experiencia formidable en la fabricación de circuitos integrados, un factor clave en las innovaciones de diseño y mejoras de rendimiento. Rao concluye: "La experiencia de Intel está en la optimización del silicio. Es algo que hacemos mejor que nadie".