.

Una gran pantalla exterior muestra al consejero delegado de Apple, Tim Cook, durante un anuncio de nuevos productos en el campus de Apple.

AP PHOTO/JEFF CHIU

Inteligencia Artificial

Nube privada y cálculos de IA en dispositivo: las claves de Apple Intelligence

1

La primera gran andanada de Apple en la guerra de la IA apuesta a que la gente se preocupará por la privacidad de los datos al automatizar tareas

  • por James O'Donnell | traducido por
  • 13 Junio, 2024

En su Conferencia Mundial de Desarrolladores celebrada el lunes, Apple desveló por primera vez su visión para potenciar su gama de productos con inteligencia artificial. La característica clave, que se aplicará a prácticamente toda su gama de productos, es la Apple Intelligence, un conjunto de capacidades basadas en IA que promete ofrecer servicios de IA personalizados manteniendo la seguridad de los datos confidenciales.

Representa el mayor salto adelante de Apple en el uso de nuestros datos privados para ayudar a la IA a realizar tareas por nosotros. Para demostrar que puede hacerlo sin sacrificar la privacidad, la compañía afirma que ha creado una nueva forma de gestionar los datos confidenciales en la nube.

Apple afirma que su sistema centrado en la privacidad intentará primero realizar las tareas de IA localmente en el propio dispositivo. Si se intercambian datos con servicios en la nube, se cifrarán y se eliminarán posteriormente. La empresa también afirma que el proceso, que denomina Private Cloud Compute (computación en nube privada), estará sujeto a la verificación de investigadores de seguridad independientes.

La propuesta supone un contraste implícito con empresas como Alphabet, Amazon o Meta, que recopilan y almacenan enormes cantidades de datos personales. Apple afirma que todos los datos personales que se transmitan a la nube se utilizarán únicamente para la tarea de IA en cuestión y no se conservarán ni serán accesibles para la empresa, ni siquiera para depuración o control de calidad, una vez que el modelo haya completado la solicitud.

En pocas palabras, Apple está diciendo que la gente puede confiar en ella para analizar datos increíblemente sensibles —fotos, mensajes y correos electrónicos que contienen detalles íntimos de nuestras vidas— y ofrecer servicios automatizados basados en lo que encuentre allí, sin almacenar realmente los datos en línea ni hacerlos vulnerables.

Mostró algunos ejemplos de cómo funcionará en las próximas versiones de iOS. Por ejemplo, en lugar de buscar en tus mensajes el pódcast que te envió un amigo, podrías pedirle a Siri que lo encuentre y lo reproduzca por ti. Craig Federighi, vicepresidente sénior de ingeniería de software de Apple, explicó otra situación: le llega un correo electrónico que retrasa una reunión de trabajo, pero su hija actúa en una obra esa noche. Ahora su teléfono puede encontrar el PDF con información sobre la representación, predecir el tráfico local y decirle si llegará a tiempo. Estas capacidades se extenderán más allá de las aplicaciones creadas por Apple, permitiendo a los desarrolladores aprovechar también la IA de Apple.

Como la empresa obtiene más beneficios del hardware y los servicios que de la publicidad, tiene menos incentivos que otras para recopilar datos personales en línea, lo que le permite posicionar el iPhone como el dispositivo más privado. Aun así, Apple ya se ha encontrado en el punto de mira de los defensores de la privacidad. Los fallos de seguridad provocaron filtraciones de fotos explícitas de iCloud en 2014. En 2019, se descubrió que contratistas escuchaban grabaciones íntimas de Siri para control de calidad. Las disputas sobre cómo Apple maneja las solicitudes de datos de las fuerzas de seguridad son constantes.

La primera línea de defensa contra las violaciones de privacidad, según Apple, es evitar la computación en la nube para tareas de IA siempre que sea posible. "La piedra angular del sistema de inteligencia personal es el procesamiento en el dispositivo", dice Federighi, lo que significa que muchos de los modelos de IA se ejecutarán en iPhones y Macs en lugar de en la nube. "Es consciente de tus datos personales sin recopilar tus datos personales".

Eso presenta algunos obstáculos técnicos. Dos años después del boom de la IA, hacer solicitudes a los modelos incluso para tareas sencillas sigue requiriendo enormes cantidades de potencia computacional. Lograr eso con los chips utilizados en teléfonos y portátiles es difícil, razón por la cual solo el más pequeño de los modelos de IA de Google puede ejecutarse en los teléfonos de la compañía, y todo lo demás se hace a través de la nube. Apple afirma que su capacidad para manejar cálculos de IA en el dispositivo se debe a años de investigación en el diseño de chips, lo que llevó a los chips M1 que comenzó a desplegar en 2020.

Sin embargo, ni siquiera los chips más avanzados de Apple pueden manejar todo el espectro de tareas que la compañía promete llevar a cabo con la IA. Si le pides a Siri que haga algo complicado, es posible que tenga que pasar esa petición, junto con tus datos, a modelos que solo están disponibles en los servidores de Apple. Este paso, dicen los expertos en seguridad, introduce una gran cantidad de vulnerabilidades que pueden exponer tu información a malos actores externos, o al menos a la propia Apple.

"Siempre advierto a la gente de que en cuanto los datos salen del dispositivo, se vuelven mucho más vulnerables", afirma Albert Fox Cahn, director ejecutivo del Surveillance Technology Oversight Project (Proyecto de supervisión de la tecnología de vigilancia) y profesor residente del Instituto de Derecho de la Información de la Facultad de Derecho de la Universidad de Nueva York (EE UU).

Apple afirma haber mitigado este riesgo con su nuevo sistema Private Cloud Compute. "Por primera vez en la historia, Private Cloud Compute extiende a la nube la seguridad y privacidad líderes del sector de los dispositivos Apple", escriben en su anuncio los expertos en seguridad de Apple, que afirman que los datos personales "no son accesibles a nadie más que al usuario, ni siquiera a Apple". ¿Cómo funciona?

Históricamente, Apple ha animado a la gente a optar por el cifrado de extremo a extremo (el mismo tipo de tecnología utilizada en aplicaciones de mensajería como Signal) para proteger los datos sensibles de iCloud. Pero eso no funciona con la IA. A diferencia de las aplicaciones de mensajería, en las que una empresa como WhatsApp no necesita ver el contenido de tus mensajes para enviárselos a tus amigos, los modelos de IA de Apple necesitan acceder sin cifrar a los datos subyacentes para generar respuestas. Aquí es donde entra en juego el proceso de privacidad de Apple. En primer lugar, Apple afirma que los datos solo se utilizarán para la tarea en cuestión. En segundo lugar, este proceso será verificado por investigadores independientes.

Ni que decir tiene que la arquitectura de este sistema es complicada, pero puedes imaginártelo como un protocolo de encriptación. Si tu teléfono determina que necesita la ayuda de un modelo de IA mayor, empaquetará una solicitud que contenga la indicación que está utilizando y el modelo específico, y luego pondrá un candado a esa solicitud. Solo el modelo de IA específico que se vaya a utilizar tendrá la llave adecuada.

A la pregunta de MIT Technology Review sobre si se notificará a los usuarios cuando una determinada solicitud se envíe a modelos de IA basados en la nube en lugar de gestionarse en el dispositivo, un portavoz de Apple dijo que habrá transparencia para los usuarios, pero que no se dispone de más detalles.

Dawn Song, codirectora del Centro de Inteligencia Descentralizada Responsable de la Universidad de California en Berkeley (EE UU) y experta en computación privada, afirma que las novedades de Apple son alentadoras. "La lista de objetivos que han anunciado está bien pensada", afirma. "Por supuesto, habrá algunos retos para cumplir esos objetivos".

Cahn dice que, a juzgar por lo que Apple ha revelado hasta ahora, el sistema parece mucho más protector de la privacidad que otros productos de IA existentes en la actualidad. Dicho esto, el estribillo común en su espacio es "Confía pero verifica". En otras palabras, no sabremos lo seguros que estos sistemas mantienen nuestros datos hasta que investigadores independientes puedan verificar sus afirmaciones, como Apple promete que hará, y la compañía responda a sus hallazgos.

"Abrirse a la revisión independiente de los investigadores es un gran paso", afirma. "Pero eso no determina cómo vas a responder cuando los investigadores te digan cosas que no quieres oír". Apple no respondió a las preguntas de MIT Technology Review sobre cómo evaluará la compañía los comentarios de los investigadores.

El pacto entre privacidad e IA

Apple no es la única empresa que apuesta a que muchos de nosotros concederemos a los modelos de IA un acceso casi ilimitado a nuestros datos privados si eso significa que pueden automatizar tareas tediosas. Sam Altman, de OpenAI, describió su herramienta de IA soñada a MIT Technology Review como una "que lo sabe todo sobre mi vida, cada correo electrónico, cada conversación que he tenido". En su propia conferencia de desarrolladores de mayo, Google anunció el Proyecto Astra, un ambicioso proyecto para construir un "agente universal de IA que sea útil en la vida cotidiana".

Se trata de una apuesta que obligará a muchos de nosotros a plantearnos por primera vez qué papel queremos que desempeñen los modelos de IA, si es que queremos que desempeñen alguno, en la forma en que interactuamos con nuestros datos y dispositivos. Cuando ChatGPT apareció por primera vez en escena, no era una pregunta que tuviéramos que hacernos. Era simplemente un generador de texto que podía escribirnos una tarjeta de cumpleaños o un poema, y las cuestiones que planteaba —como de dónde procedían sus datos de entrenamiento o qué sesgos perpetuaba— no parecían tan personales.

Ahora, menos de dos años después, las grandes tecnológicas apuestan miles de millones de dólares a que confiamos en la seguridad de estos sistemas lo suficiente como para entregar nuestra información privada. Aún no está claro si sabemos lo suficiente como para tomar esa decisión, o hasta qué punto podemos abstenernos aunque queramos. "Me preocupa que esta carrera armamentística de la inteligencia artificial ponga cada vez más datos nuestros en manos ajenas", afirma Cahn.

Apple lanzará pronto versiones beta de sus funciones de Inteligencia de Apple, empezando este otoño con el iPhone 15 y el nuevo macOS Sequoia, que puede ejecutarse en Macs y iPads con chips M1 o más recientes. Dice Tim Cook, consejero delegado de Apple: "Creemos que la inteligencia de Apple va a ser indispensable".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla