.

Tecnología y Sociedad

Intel mira desde fuera mientras otras compañías prosperan en la IA

1

El rey de los chips perdió su oportunidad para imponer sus productos en los dispositivos móviles, pero el desarrollo del aprendizaje profundo le abre una nueva ventana

  • por Peter Burrows | traducido por Teresa Woods
  • 30 Junio, 2016


Crédito: Gary Taxall.

Allá por el año 1997, el entonces director ejecutivo de Intel, Andy Grove, se convirtió en uno de los primeros titanes empresariales en adoptar las enseñanzas del profesor de la Escuela de Negocios de la Universidad de Harvard (EEUU) Clayton Christensen. Al presentir que Intel podría verse derrotada por sus rivales con chips para PC más baratos, Grove invitó a Christensen a hablar con su equipo sobre los líderes industriales del pasado que habían esperado demasiado frente a las amenazas emergentes. Sólo un par de cuatrimestres después, Intel lanzó una línea de chips Celeron para PC de gama más baja, lo cual en efecto aplastó los sueños de los aspirantes a Intel como Advanced Micro Devices. Un "dilema de innovador" evitado.

Intel ya no representa un caso de estudio de la adaptabilidad. Al contrario, se ha dado un batacazo enorme en el mercado de chips para smartphones y tabletas, con diferencia la mayor oportunidad para los fabricantes de chips en los últimos 10 años. El 19 de abril, el mismo día que anunció que eliminaría 12.000 empleos, Intel descartó desarrollar algunos de sus chips móviles Atom tras años de grandes inversiones. Y durante los últimos años, el mayor fabricante de chips del mundo se ha mostrado indiferente hacia otro gran mercado potencial: el de los chips diseñados para la técnica de inteligencia artificial (IA) conocida como aprendizaje profundo.

Ese rincón antaño oscuro de las investigaciones de la IA se ha convertido en una de las tendencias tecnológicas más candentes (ver Aprendizaje profundo). Grandes empresas de internet lo están empleando para lanzar servicios web que entienden el contenido de las imágenes y del texto, y los chips para aprendizaje profundo se están incorporando en drones, coches autónomos y otros productos del tan aclamado "internet de las cosas". Algo especialmente peligroso para Intel porque su CEO, Brian Krzanich, ya ha dicho que el futuro de la compañía depende de su desempeño en los grandes centros de datos e internet de las cosas.

Intel está introduciendo ahora su primer chip diseñado específicamente para el aprendizaje profundo. Es una nueva versión del coprocesador Xeon Phi, que funciona en conjunto con los microprocesadores insignia de Intel, los x86. Pero aunque el chip está bien adaptado a muchas tareas de aprendizaje profundo, la empresa que prácticamente monopolizó el mercado de los PC con su estrategia "Intel Inside" [NdT: campaña global de etiquetas que indican que un producto integra tecnología de Intel] sigue muy rezagada en el desarrollo de las herramientas de programación que los clientes necesitan para aprovechar estos chips. Su rival de menor tamaño Nvidia ha logrado un dominio temprano al ofrecer estas herramientas, según el investigador de Baidu y gran consumidor de hardware de aprendizaje profundo Bryan Catanzaro. Cuando Baidu desarrolla estos sistemas, introduce cuatro veces más chips de Nvidia que de Intel. "Intel podría ser un actor principal, pero es una cuestión de enfoque", explica Catanzaro. "Está en proceso de recortar en muchas áreas, así que hay que preguntarse si tiene la voluntad institucional necesaria".

Hasta ahora, los daños económicos para Intel han sido mínimos. Amazon, Google y otros gigantes de la computación en la nube gastarán este año algo más de 133 millones de dólares (casi 120 millones de euros) en chips para sus sistemas de aprendizaje profundo, según la empresa de investigación de mercado Tractica. Es una miseria en comparación con los ingresos de Intel en 2015: 56.000 millones de dólares (unos 50.600 millones de euros). En lugar de prometer innovaciones revolucionarias, Intel sugiere que sus chips actuales servirán para ejecutar muchos trabajos y que la empresa dispone de la habilidad necesaria para diseñar y fabricar nuevos chips según madure el mercado, según Catanzaro. Y la empresa está empeñada en no centrarse en el aprendizaje profundo a costa de otros enfoques de IA. Después de todo, los veteranos de Intel han visto arraigar modas de IA en el pasado; temen que el aprendizaje profundo no sea la panacea que muchos describen. "Hemos observado estos ciclos antes", señala la directora de aprendizaje de máquinas para el Grupo de Centros de Datos de Intel, Nidhi Chappell.

Foto: Intel incorpora obleas así en chips de la familia de productos Xeon Phi. Los chips están diseñados para ejecutar tareas de aprendizaje profundo. Crédito: Intel.

Para Nvidia, sin embargo, el aprendizaje profundo está empezando a impulsar el crecimiento de sus ingresos. Las ventas de la compañía durante el primer cuatrimestre a grandes empresas de computación en la nube aumentaron en un 63%. Radicada cerca de Intel en Santa Clara, California (EEUU), Nvidia antes vendía sus chips de procesamiento gráfico (GPU, por sus siglas en inglés) principalmente a fabricantes de PC y consolas de videojuegos. Pero ha logrado una impresionante ventaja en el incipiente mercado de aprendizaje profundo desde que las grandes empresas de internet se dieron cuenta de lo bien que los chips gráficos lidian con los trabajos de inteligencia artificial. Ahora, Nvidia afirma colaborar con 3.500 clientes en industrias que van desde la automovilística hasta la farmacéutica pasando por los servicios financieros.

Nvidia no es la única empresa que intenta sacar provecho mientras Intel se hace la desinteresada. Qualcomm está introduciendo herramientas de software para ayudar a sus clientes a utilizar sus chips móviles para el aprendizaje profundo. Y start-ups como Knupath y Nervana están desarrollando unos chips rediseñados radicalmente para el aprendizaje profundo. Tactica estima que este mercado valdrá 3.600 millones de dólares (unos 3.250 millones de euros) para el año 2024.

Knupath, que fue fundada por el anterior director de la NASA Dan Goldin, anunció un chip de IA llamado Hermosa en junio, junto con software para vincular 512.000 Hermosas y otros chips. La primera versión se centrará en reorganizar voces inesperadas en entornos ruidosos, por ejemplo para iniciar sesión con su voz en su banca en línea mientras conduce su descapotable con la radio encendida. La empresa ha recaudado 100 millones de dólares (unos 90 millones de euros) de financiación a partir de la suposición de que las arquitecturas actuales de chips no podrán satisfacer la demanda futura. "Estamos contemplando las fases más tempranas de la inteligencia y el aprendizaje de máquinas. Es como el Lejano Oeste", afirma Goldman. "Van a suceder algunas cosas increíblemente locas".

Un agujero en el mercado

Cuando empresas como Facebook, Google y Microsoft enseñan al software cómo detectar el contenido de las imágenes o identificar el habla, construyen lo que a menudo se denomina como redes neuronales, en las que miles de procesadores conectados son alimentados con enormes cantidades de datos hasta que las máquinas son capaces de reconocer patrones de forma autónoma y emitir juicios acordes. En enero, una red neuronal de Google ganó a uno de los mejores jugadores humanos del mundo en el juego de mesa Go en cuatro de las cinco partidas.

En tales aplicaciones, los microprocesadores x86 de Intel normalmente no hacen mucho más que tareas de limpieza. Mientras un procesador Intel de gama alta tiene suficiente potencia como para ejecutar larguísimas hojas de cálculo o un software corporativo de operaciones, los chips optimizados para el aprendizaje profundo resuelven tipos determinados de problemas –como entender comandos de voz o reconocer imágenes– al descomponerlos en millones de paquetes del tamaño de un bit. Puesto que los GPU como los de Nvidia constan de miles de diminutos núcleos de procesador abarrotados dentro de un único trozo de silicio, pueden lidiar con miles de estos trozos simultáneamente. Asignar este trabajo a un procesador de Intel representaría un enorme despilfarro de recursos, puesto que cada uno de estos procesadores contiene varias docenas de núcleos que están diseñados para ejecutar complejos algoritmos. Los chips de aprendizaje profundo no necesitan pensar demasiado para lidiar con todas esas microtareas. Los núcleos de procesador gráfico disponen de la cantidad adecuada de potencia aritmética para poder clasificar correctamente una imagen u otro dato en un rápido vistazo.

Foto: Este chip de Nvidia está diseñado para grandes centros de datos de internet y aplicaciones de aprendizaje profundo. Crédito: Nvidia.

Catanzaro, que ayudó a lanzar la campaña de aprendizaje profundo de Nvidia antes de ser fichado por Baidu, está probando el coprocesador Xeon Phi y asegura que puede despachar algunas tareas con alrededor del 90% de la precisión humana y con la misma eficacia que los procesadores gráficos. Pero es escéptico. No sólo no ha desarrollado Intel ninguna de las herramientas de software que ofrece Nvidia para ayudar a sus clientes a refinar y mantener sus redes neuronales, sino que también señala que Intel necesita mejorar su capacidad de llevar sus chips hasta las 'celebridades' del aprendizaje profundo que están impulsando el campo. Hasta ahora, Intel ha intentado vender el Xeon Phi por volumen a grandes consumidores corporativos para unas aplicaciones bien entendidas, dice Cantanzaro. "Quiero que Intel triunfe", afirma. "No sería bueno para nadie que Nvidia fuera la única alternativa viable, así que necesitamos que Intel se consolide en este mercado. Pero tendrá que empezar a centrarse".

En mayo, Google sorprendió a la comunidad de IA al anunciar que llevaba más de un año empleando un chip de su propia creación, llamado Tensor Processing Unit (o unidad de procesamiento tensor, en castellano). Aunque Google ha invertido miles de millones de dólares de buen grado en proyectos de "disparo a la luna" como los coches autónomos, esta marcó la primera vez que ha realizado incursiones en el caro y difícil negocio de los chips. ¿Por qué molestarse? Era la única manera de "impulsar nuestras aplicaciones alimentadas por aprendizaje de máquinas", explica el distinguido ingeniero de software de Google Norm Jouppi en un correo electrónico. Aunque Google seguirá empleando procesadores de Intel en su infraestructura de computación, dijo, "necesitábamos más de lo que ofrecía el mercado".

Sintiendo la presión

Intel también ha guardado silencio en otro prometedor nicho del mercado del aprendizaje profundo: el de los chips que integran los conocimientos aprendidos por las redes neuronales de móviles, coches y otros dispositivos que queremos volver más inteligentes. DJI, el mayor fabricante de drones del mundo, incluyó una "unidad de procesamiento visual" fabricada por Movidius en su nuevo modelo Phantom 4. El chip procesa lo que ven las cámaras del Phantom y permite a la nave evitar colisiones que un piloto humano podría no tener la suficiente destreza para hacerlo desde su posición en tierra. Además, está diseñado para gastar muy poca batería, algo que de nuevo no es especialidad de Intel.

Esto chips podrían resultar mucho menos rentables que los procesadores que hicieron de Intel un nombre cotidiano, pero el volumen de mercado podría ser demasiado importante como para resistirse en caso de que los componentes estándares de las máquinas de resonancia magnética, los robots industriales y las cámaras de seguridad se vuelvan más inteligentes, según el fundador de la empresa de investigación sobre la industria del chip Tirias Research, Jim McGregor. Más tentador es el mercado de los coches autónomos, que podría llegar a generar decenas de millones de unidades al año. Si cada vehículo incorporara varios de estos chips, este mercado por sí sólo podría competir con el tamaño del de chips para PC.

Chappell de Intel no descarta tales escenarios, pero piensa que la oportunidad de Intel consiste en adoptar una perspectiva más amplia y pragmática del mercado. El reto más urgente para los investigadores de IA es desarrollar formas de entrenar las redes neuronales mucho más rápido – digamos, en una tarde en lugar de semanas-. El nuevo chip Xeon Phi ayudará a resolver este problema, indica Chappell. Los investigadores lo podrán utilizar para diseñar un sistema de entrenamiento en sus propios ordenadores y seguir utilizándolo a medida que aumente el tamaño del sistema con redes más grandes de servidores, y algún día a escala masiva en la nube.

A más largo plazo, Intel podría desarrollar chips que operen en concierto con todo, desde esos sistemas de entrenamiento hasta dispositivos de bajo consumo de internet de las cosas, explica Chappell. En ese escenario, los procesadores gráficos y otros chips especializados en el aprendizaje profundo estarían en desventaja frente a los microprocesadores multiuso especialistas en todo. Gracias al talento de ingeniería y las capacidades de fabricación de Intel, la empresa podría ser capaz de abarrotar sus futuros procesadores con circuitos de aprendizaje profundo a un bajo coste incremental. Si Intel puede crear un conjunto común de herramientas de software para gestionar de todo, desde redes neuronales hasta drones, podría poner el aprendizaje profundo en manos de muchas más empresas y anclar estratégicamente su negocio.

Estos son los trucos que ayudaron a Intel a monopolizar la industria de los PC. Incluso ahora, pocos están dispuestos a sentenciar a la empresa. "Según lo último que yo sé, dispone de 15.000 millones de dólares [unos 13.600 millones de euros] en el banco, y no es gente estúpida", señala el CEO de Movidus, Remi El-Ouazzane. "Pero al menos ahora, no nos sentimos presionados".

Descubre la lista completa de las 50 empresas más brillantes de 2016 de MIT Technology Review

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  2. El fundador de Oculus habla sobre la apuesta de EE UU por la realidad mixta en el campo de batalla

    El proyecto norteamericano de gafas militares está cuestionado, pero Palmer Luckey cree que los cascos dotados con IA y realidad aumentada serán clave en los ejércitos del futuro

  3. Este radioaficionado impulsa la defensa antidrones ucraniana frente a Rusia

    Desde la invasión rusa, Serhii “Flash” Beskrestnov se ha convertido en una fuerza influyente, aunque a veces controvertida, que comparte consejos de expertos e información sobre la tecnología en constante evolución que se ha apoderado de los cielos. Su trabajo puede determinar el futuro de Ucrania y de guerras mucho más allá.