.

Otros

El nuevo director de Akamai quiere acelerar la computación móvil

1

Tom Leighton, cofundador y ahora director general de la empresa planea pruebas de priorización de datos con Ericsson y un uso masivo de aparatos distribuidos para transmitir vídeo.

  • por David Talbot | traducido por Lía Moya (Opinno)
  • 21 Diciembre, 2012

Maestro móvil: Tom Leighton, antiguo matemático del Instituto de Tecnología de Massachusetts y cofundador de Akamai Technologies en 1998, afirma que acelerar la Web móvil es su prioridad como nuevo director general de la empresa.

Mientras Tom Leighton se prepara para asumir el puesto de director ejecutivo en Akamai Technologies —la empresa que cofundó hace 14 años para optimizar la distribución del tráfico Web- está pensando en los datos móviles y en toda una serie de nuevas tecnologías.

Afirma que su empresa, que cuenta con 119.000 servidores y distribuye entre el 15 y el 30 por ciento del tráfico de la Web, está trabajando en tecnologías para proporcionar servicios que priorizan distintos tipos de tráfico web móvil, para usar servicios distribuidos que almacenan o guardan en el “caché” contenido de vídeo y comprimen las fotos de forma selectiva dependiendo del aparato que estés usando.

Leighton, que ahora mismo es el director científico de la empresa asume la dirección ejecutiva a partir del 1 de enero sustituyendo a Paul Sagan, que seguirá en la compañía como asesor senior.

Leighton ha hablado con David Talbot, corresponsal jefe de  MIT Technology Review, para explicar los planes de Akamai para conseguir que el contenido llegue a los aparatos móviles más rápido.

¿Qué tal distribuyen el contenido de Internet las redes móviles?

El rendimiento de los aparatos móviles, sobre todo en las redes móviles puede ser bastante malo. Si te fijas en las velocidades de descarga de los principales sitios comerciales, equivalen a las velocidades de línea de teléfono fija de hace nueve años, eso es como la edad media de Internet.  Los usuarios esperan que sea como la televisión: clic y se enciende. Cambias de canal y simplemente cambia. Creen que la Web debe funcionar así.

En octubre lanzasteis un nuevo servicio de mejora del rendimiento del sitio, Aqua Ion, que afirmáis acelera este proceso.

Si un sitio tiene muchas imágenes, podemos reducir el ancho de banda que necesitas para conseguir el servicio. Al entrar en un sitio web con Aqua Ion en realidad estás entrando en un servidor Akamai en la red. Detectamos qué aparato estás usando y conocemos la calidad de la conexión. Comprimimos la imagen u otro objeto dependiendo del tipo de aparato y la conexión que tengas. Eso alivia la carga de la red y proporciona una mejor experiencia al usuario.

¿Cuál es el siguiente paso para esta tecnología? ¿Algo que aún no hayáis comercializado?

Estamos trabajando en esto para HTLM. Ya conocerás el sistema de encontrar trozos de HTML comunes de una página a otra, descomponerlos en trozos pequeños y encontrar las piezas que se pueden guardar en el caché. Esto puede suponer el 95 por ciento de una página Web. Después podemos averiguar, con bastante precisión, qué contenido buscarás cuando visitas una página Web basado en perfiles de uso que incluyen la dirección IP, localización, velocidad de acceso y tipo de aparato. Y preparamos todo ese contenido en un servidor cercano a ti o, mejor aún, en tu propio aparato. Es realmente rápido porque lo que estás buscando puede estar ya en tu aparato.

¿Qué podéis hacer para acelerar la descarga de vídeo?

En la actualidad, para ver acontecimientos importantes –como un partido de fútbol o de béisbol- ya estás usando Akamai sin saberlo. El vídeo te está llegando desde un servidor Akamai cercano. La próxima generación de esta tecnología lo que hará será un uso mayor de los usuarios finales para distribuir el contenido. Lo denominamos distribución asistida por el cliente. Si tienes un ordenador con buena conexión y con buena potencia, tu máquina también se puede usar para enviar la información a un vecino. Así no tenemos que enviar toda la información a cada vecino individualmente.

Ahora mismo hay 30 millones de aparatos haciendo esto, normalmente ordenadores de sobremesa o portátiles. Pero hay miles de millones de aparatos en el mundo. Nos gustaría usar este mismo sistema con las tabletas y a otros aparatos con buena conexión. Queremos estar presentes en todos los aparatos, cualquier cosa que tenga la conectividad adecuada y la CPU adecuada y la memoria adecuada.  Esto nos permite lograr una gran escala a menor coste y con gran calidad.

¿En qué otras tecnologías y estrategias estáis trabajando?

Estamos haciendo pruebas con Ericsson, que hace equipos para las redes de los operadores, para ofrecer una garantía de la calidad del servicio de principio a fin que se pueda vender como servicio. El valor de un bit para un sitio de venta por internet –pongamos que estás comprando un billete por valor de 300 dólares- puede ser cinco veces más valioso que un bit enviado como parte de un tráiler de una película. Etiquetaremos el tráfico para que se identifique como de una mayor calidad de servicio garantizada. Permite al operador sacarle el mayor provecho a su tráfico. Espero que esto se presente a lo largo del año que viene.

¿No viola eso la idea de la “neutralidad de la red”, la idea de que no debería darse prioridad a unos bits sobre otros?

No. La preocupación por la neutralidad de la red aparece cuando las redes dan un tratamiento preferente a su propio contenido, excluyendo a los propietarios de otros contenidos. Esta tecnología permite un acceso igualitario a cualquiera, pero aquellos que quieran pagar más por la calidad del servicio pueden hacerlo. Así todos tienen un acceso igualitario al servicio más rápido.

¿Existe una crisis del espectro ahora mismo? Si no, ¿cuánto aguantará el espectro?

Sí. Ya sucede en las grandes ciudades o en los eventos deportivos. Es muy difícil conseguir una conexión sin atascos.

¿Los esfuerzos del tipo de Google Fibers en Kansas City y el despliegue en Chattanooga –ambos dan velocidades de un gigabyte por segundo, 100 veces superior a la velocidad de conexión media de los clientes de Estados Unidos- sirven para resolver los problemas en esas zonas?

No se puede medir la capacidad de Internet tomando solo los últimos kilómetros de conexión. Solo porque tengas esa conexión de 100 megabytes o incluso un gigabyte desde tu casa a un centro de datos local no significa que vayas a conseguir siquiera un stream de cinco megabytes si el servicio te lo da un centro de datos al otro extremo del país.

Otros

  1. La IA ahora puede crear una réplica de tu personalidad

    Una entrevista de dos horas es suficiente para captar con precisión tus valores y preferencias, según una nueva investigación de Stanford y Google DeepMind.

  2. La difícil tarea de señalar quién debe pagar por el cambio climático

    Los mayores contaminadores del mundo, en cifras.

  3. Esto es lo que está sobre la mesa en la conferencia del clima (COP29) de este año

    Las conversaciones se centran en la financiación climática, pero los resultados de las elecciones de EE UU son de gran importancia