Esta historia apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir primero historias como esta en su bandeja de entrada, regístrese aquí .
Ya es oficial. Después de tres años, la Ley de Inteligencia Artificial, la nueva ley de la UE, pasó su último trámite burocrático la semana pasada, cuando el Parlamento Europeo votó su aprobación. (Puedes ponerte al día sobre las cinco cosas principales que debes saber sobre la ley de IA con este artículo que escribí el año pasado).
Para mí también es el final de una era: fui la primera reportera en obtener la primicia de un primer borrador de la Ley de IA en 2021, y desde entonces he seguido de cerca el consiguiente circo de lobbies.
Pero la realidad es que el trabajo duro empieza ahora. La ley entrará en vigor en mayo y los ciudadanos de la UE empezarán a ver los cambios a finales de año. Los organismos reguladores tendrán que ponerse en marcha para hacer cumplir la ley como es debido, y las empresas dispondrán de hasta tres años para acatarla.
Esto es lo que cambiará (y lo que no):
1. Algunos usos de la IA quedarán prohibidos este año
La ley impone restricciones a los casos de uso de la IA que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad, la educación y la vigilancia policial. Estos usos quedarán prohibidos a finales de año.
También prohíbe algunos usos que se consideran un «riesgo inaceptable». Entre ellos se incluyen algunos casos de uso bastante extravagantes y ambiguos, como los sistemas de IA que despliegan «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y dificultar la toma de decisiones informadas», o explotan a personas vulnerables. La ley de IA también prohíbe los sistemas que infieren características sensibles, como las opiniones políticas o la orientación sexual de alguien, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohíbe la creación de bases de datos de reconocimiento facial a través de Internet, como hace Clearview AI.
Sin embargo, hay algunas salvedades importantes. Las fuerzas del orden podrán seguir utilizando datos biométricos sensibles y programas de reconocimiento facial en lugares públicos para luchar contra delitos graves, como el terrorismo o los secuestros. Algunas organizaciones de derechos civiles, como la organización de derechos digitales Access Now, han calificado la Ley de Inteligencia Artificial de «fracaso para los derechos humanos» porque no prohíbe rotundamente casos controvertidos de uso de la IA, como el reconocimiento facial. Y aunque las empresas y las escuelas no pueden utilizar software que pretenda reconocer las emociones de las personas, sí pueden hacerlo si es por razones médicas o de seguridad.
2. Será más obvio cuándo estás interactuando con un sistema de IA
Las empresas tecnológicas estarán obligadas a etiquetar los deepfakes y el contenido generado por IA y notificar a las personas cuando estén interactuando con un chatbot u otro sistema de IA. La ley de IA también exigirá a las empresas que desarrollen medios generados por IA de forma que sea posible detectarlos. Se trata de una noticia prometedora en la lucha contra la desinformación, y dará un gran impulso a la investigación en torno a las marcas de agua y la procedencia de los contenidos.
Sin embargo, todo esto es más fácil de decir que de hacer, y la investigación va muy por detrás de lo que exige la normativa. Las marcas de agua siguen siendo una tecnología experimental y fácil de manipular. Sigue siendo difícil detectar con fiabilidad los contenidos generados por inteligencia artificial. Algunos esfuerzos son prometedores, como el C2PA, un protocolo de internet de código abierto, pero es necesario trabajar mucho más para que las técnicas de procedencia sean fiables y para crear una norma que abarque a todo el sector.
3. Los ciudadanos pueden denunciar si han sido perjudicados por una IA
La Ley de Inteligencia Artificial creará una nueva Oficina Europea de Inteligencia Artificial para coordinar el cumplimiento, la aplicación y la ejecución (y están contratando personal). Gracias a la ley de IA, los ciudadanos de la UE podrán presentar quejas sobre los sistemas de IA cuando sospechen que han sido perjudicados por uno de ellos, y podrán recibir explicaciones sobre por qué los sistemas de IA tomaron las decisiones que tomaron. Es un primer paso importante para dar a los ciudadanos más capacidad de decisión en un mundo cada vez más automatizado. Sin embargo, esto requerirá que los ciudadanos tengan un nivel decente de conocimientos sobre IA y sean conscientes de cómo se producen los daños algorítmicos. Para la mayoría de la gente, estos conceptos siguen siendo muy extraños y abstractos.
4. Las empresas de IA tendrán que ser más transparentes
La mayoría de los usos de la IA no requerirán el cumplimiento de la ley de IA. Sólo las empresas de IA que desarrollen tecnologías en sectores de «alto riesgo», como infraestructuras críticas o sanidad, tendrán nuevas obligaciones cuando la ley entre plenamente en vigor dentro de tres años. Entre ellas figuran mejorar la gobernanza de los datos, garantizar la supervisión humana y evaluar cómo afectarán estos sistemas a los derechos de las personas.
Las empresas de IA que desarrollen «modelos de IA de propósito general», como modelos lingüísticos, también tendrán que crear y conservar documentación técnica que muestre cómo han construido el modelo, cómo respetan la ley de derechos de autor y publicar un resumen público de los datos de entrenamiento que se han utilizado para entrenar el modelo de IA.
Se trata de un gran cambio con respecto al statu quo actual, en el que las empresas tecnológicas mantienen en secreto los datos utilizados en sus modelos, y exigirá una revisión de las desordenadas prácticas de gestión de datos del sector de la IA.
Las empresas con los modelos de IA más potentes, como GPT-4 y Gemini, se enfrentarán a requisitos más onerosos, como tener que realizar evaluaciones de los modelos y de los riesgos para mitigarlos, garantizar la protección de la ciberseguridad e informar de cualquier incidente en el que haya fallado el sistema de IA. Las empresas que incumplan la normativa se enfrentarán a multas enormes o sus productos podrían ser prohibidos en la UE.
También cabe señalar que los modelos de IA gratuitos y de código abierto que comparten todos los detalles de cómo se construyó el modelo, incluida su arquitectura, parámetros y ponderaciones, están exentos de muchas de las obligaciones de la ley de IA.