.

Kyonntra/Getty Images

Inteligencia Artificial

El año que Apple empezó a tomarse en serio la privacidad del usuario

1

A lo largo de 2019, el gigante tecnológico ha introducido una serie de nuevas técnicas en productos como Siri para mejorar la privacidad a nivel local sin tener que sacar los datos de cada dispositivo. Este cambio demuestra que es posible generar servicios útiles y que garanticen la seguridad de la información

  • por Karen Hao | traducido por Ana Milutinovic
  • 31 Diciembre, 2019

Si tiene un iPhone, es posible que a lo largo de este año haya notado un cambio en el comportamiento de Siri. Ahora, el asistente de voz en el teléfono se "despierta" cuando le dice "Hola Siri", pero ya no lo hace cuando esa misma frase es pronunciada por sus amigos o familiares. Apple promovió este cambio por una cuestión práctica: quería una forma de evitar que todos los iPhones de una habitación respondieran cuando una persona pronunciara la frase de activación.

Tal vez crea que Apple necesitó reunir una gran cantidad de datos de audio para ejecutar este cambio. Pero, sorprendentemente, no fue así. Para lograrlo, la empresa utilizó una técnica conocida como aprendizaje federado, según el jefe de privacidad de Apple, Julien Freudiger. El aprendizaje federado es un método de aprendizaje automático que preserva la privacidad y fue introducido por primera vez por Google en 2017.

Gracias a ella, Apple pudo entrenar diferentes copias de un modelo de reconocimiento de voz en todos los dispositivos de sus usuarios, utilizando únicamente los datos de audio disponibles localmente. Luego envió los modelos actualizados a un servidor central para combinarlos en un modelo principal. De esta manera, el audio sin procesar de las solicitudes de los usuarios de Siri nunca sale de sus iPhones y iPads, mientras que el asistente mejora continuamente a la hora de identificar la voz correspondiente.

Además del aprendizaje federado, Apple también ha usado un enfoque conocido como privacidad diferencial para añadir una capa adicional de protección. La técnica inyecta una pequeña cantidad de ruido en cualquier dato sin procesar antes de introducirlo a un modelo local de aprendizaje automático. Este paso hace que sea extremadamente difícil para los actores maliciosos aplicar la ingeniería inversa a los archivos de audio originales del modelo entrenado.

Aunque Apple lleva utilizando la privacidad diferencial desde 2017, lo ha combinado con el aprendizaje federado a partir de iOS 13, que se lanzó al público en septiembre de este año. Además de personalizar a Siri, ambas técnicas ya se utilizan para algunas otras aplicaciones, como QuickType (el teclado personalizado de Apple) y la función Found In Apps, que escanea la agenda y las aplicaciones de correo en busca de nombres de personas que nos escriben y nos llaman pero cuyos números  no están en nuestro teléfono. Freudiger asegura que la compañía planea implementar estos métodos de privacidad en más aplicaciones y características dentro de poco.

En el último año, el aprendizaje federado se ha vuelto más popular dentro de la comunidad de investigación de inteligencia artificial (IA) a medida que las preocupaciones sobre la privacidad de datos aumentan. En marzo, Google lanzó un nuevo conjunto de herramientas para facilitar a los desarrolladores la implementación de sus propios modelos de aprendizaje federado. Entre muchos otros usos, los investigadores esperan que ayude a superar los desafíos de privacidad en la aplicación de IA para atención médica. Compañías como Owkin, Doc.ai y Nvidia están interesadas en usarlo para esto.

Aunque la técnica aún es relativamente nueva y necesita perfeccionarse, la última adopción de Apple ofrece otro estudio de caso sobre cómo se puede aplicar a gran escala. También indica un cambio fundamental en la compensación que la industria tecnológica ha asumido tradicionalmente entre la privacidad y la utilidad: de hecho, ahora es posible lograr ambas cosas. Esperemos que otras compañías se den cuenta de eso pronto.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla