El gigante está utilizando el aprendizaje profundo para lograr que los ordenadores mejoren sus funciones poco a poco de forma automática, en lugar de ralentizarse a medida que envejecen. Si lo logra, podría superar las barreras que impone el fin de la ley de Moore
Los ordenadores suelen ralentizarse a medida que envejecen, ya que a sus procesadores les cuesta trabajar con un software más nuevo. Apple incluso ralentiza sus iPhones deliberadamente a medida que sus baterías se degradan. Ahora, un equipo de investigación de Google ha hecho públicos los detalles de un proyecto que podría conseguir que un ordenador portátil o un smartphone vaya aprendiendo a ejecutar sus funciones mejor y más rápido con el tiempo.
La compañía se ha centrado en una técnica común en informática llamada prefetching (o búsqueda anticipada), que consiste en acelerar la ejecución de un programa a través de la reducción del tiempo de espera del procesador mediante instrucciones de la memoria central. Los ordenadores tardan menos en procesar la información que en extraerla de la memoria. Así que para evitar los cuellos de botella, intentan predecir qué información tiene más probabilidades de ser necesaria en el futuro para extraerla con antelación. Pero a medida que los ordenadores aumentan su potencia, el proceso de elaborar estas predicciones se va complicando.
El informe publicado online esta semana, detalla cómo el equipo de Google ha usado el aprendizaje profundo para mejorar el proceso de búsqueda anticipada. Aunque los investigadores no especifican qué mejoras aporta su proceso, podemos suponer que será un avance importante. Basta con ver los impulsos que el aprendizaje profundo ha aportado a otras tareas.
El investigador visitante de la Universidad de California (EE. UU.) que ha participado en el proyecto, Heiner Litz, afirma. "El trabajo que hemos hecho es solo la punta del iceberg". En su opinión, el aprendizaje profundo puede aplicarse a todos los componentes de un ordenador, desde el sistema operativo de bajo nivel hasta el software con el que los usuarios interactúan.
Este tipo de avances serían muy oportunos. La Ley de Moore ha empezado a ralentizarse, pero el diseño fundamental de los chips de ordenador no ha cambiado mucho en los últimos años. El profesor asociado del MIT (EE. UU.) Tim Kraska, que también está explorando cómo el aprendizaje automático mejorar el funcionamiento de los ordenadores funcionen, dice que el enfoque también podría ser útil para los algoritmos de alto nivel. Una base de datos podría aprender automáticamente una forma de manejar los datos financieros que sería distinta a la del procesamiento de la información procedente de las redes sociales, por ejemplo. O una aplicación podría autoenseñarse a responder a los hábitos de un usuario concreto de manera más efectiva.
Kraska apunta: "tendemos a construir sistemas y hardware genéricos. El aprendizaje automático permite que el sistema se personalice automáticamente, desde su núcleo hasta los datos específicos y patrones de acceso de un usuario". Pero también advierte que el aprendizaje automático todavía requiere una gran potencia computacional, lo que impedirá que los sistemas informáticos cambien de la noche a la mañana. "Sin embargo, si se superan esas limitaciones, las técnicas actuales para desarrollar dichos sistemas podría cambiar fundamentalmente en el futuro", añade el experto.
Litz es más optimista: "El objetivo es lograr un sistema capaz de monitorizarse y autoaprender constantemente. Es el comienzo de algo realmente grande".