.

Inteligencia Artificial

Por qué ha sido tan difícil llegar a un acuerdo sobre la Ley de IA de la UE

1

Tres cuestiones clave que pusieron en peligro la Ley de IA de la UE.

  • por Tate Ryan-Mosley | traducido por
  • 08 Diciembre, 2023

Actualización: El 8 de diciembre de 2023 se acordó la Ley de Inteligencia Artificial de la UE, después de que esta historia fuera escrita y enviada como The Technocrat, el boletín semanal de política tecnológica de MIT Technology Review. El texto completo de la nueva ley aún no está disponible, pero tendremos un desglose completo en The Algorithm.

Tres órganos de gobierno de la Unión Europea han estado negociando la versión final de la Ley de Inteligencia Artificial de la UE, un importante paquete legislativo que regula el sector y que fue propuesto por primera vez en 2021. En un principio, la fecha para disponer de un borrador final era el 6 de diciembre, aunque los legisladores no se rindieron y debatieron hasta la madrugada del 7 y también el 8 viernes, cuando finalmente se aprobó la Ley de Inteligencia Artificial de la UE.

Hace solo unos meses, parecía que la Ley de Inteligencia Artificial de la UE obtendría todos los votos necesarios para establecer el marco de referencia para la regular sobre la IA más allá del bloque europeo. Ahora, en el Consejo de la UE, compuesto por los jefes de estado de los países miembros, Francia, Alemania e Italia, impugnaron algunos de los principios más destacados del borrador. Así, la legislación parecía correr el riesgo de fracasar, lo que hubiera abierto la posibilidad a otros países no europeos para establecer la agenda global sobre la IA.

Para entender mejor los principales puntos conflictivos y lo que queda por hacer, conversé con nuestra reportera Melissa Heikkilä y con Connor Dunlop, experto en Políticas del Instituto Ada Lovelace (Reino Unido). Como me aseguró Connor, "lo más sorprendente ha sido el nivel de redacción y reformulación en las tres instituciones de la UE", que califica como "sin precedentes". Gracias a ambos, he hecho lo posible por responder a algunas de las preguntas más importantes.

¿Cuál es el esquema básico de esta ley?

Como recordatorio, la Ley de IA de la UE pretende establecer unos parámetros de referencia basados en el riesgo para regular los productos y aplicaciones de IA. Por ejemplo, su uso en la contratación está más regulado y requiere mayor transparencia que una aplicación de "menor riesgo", como los filtros de spam basados en IA. (Escribí sobre ello en junio, si desea leer más información en profundidad).

¿Por qué ha sido tan difícil finalizar la redacción?

En primer lugar, Melissa explica que hay un gran desacuerdo sobre los modelos fundacionales, que han ocupado la mayor parte de la energía y el espacio durante los últimos debates. Hay varias definiciones del término "modelo fundacional", que está causando cierta discordia; pero el concepto básico tiene que ver con la IA de propósito general, que puede realizar muchas tareas diferentes para diversas aplicaciones.

Puede que usted haya jugado con ChatGPT, cuya interfaz se alimenta de un modelo fundacional. En este caso, un gran modelo de lenguaje de OpenAI. Sin embargo, lo más complejo es que estas tecnologías también pueden conectarse a otras aplicaciones con usos más limitados, como la educación o la publicidad.

Las versiones iniciales de la Ley de IA de la UE no contemplaban los modelos fundacionales de manera explícita, pero Melissa señala que la proliferación de productos de IA generativa en el último año empujó a los legisladores a integrarlos en el marco de riesgos. En la versión de la legislación aprobada por el Parlamento Europeo en junio, todos los modelos fundacionales estarían estrictamente regulados, con independencia de la categoría de riesgo que se les asigne o de cómo se utilicen. Esto se consideró necesario debido a la gran cantidad de datos de entrenamiento necesarios para construirlos, así como de las preocupaciones por la propiedad intelectual y la privacidad, y el impacto general que tienen en otras tecnologías.

Por supuesto, las empresas tecnológicas que construyen modelos básicos han rebatido esta afirmación y abogan por un enfoque más matizado que tenga en cuenta cómo se utilizan los modelos. Francia, Alemania e Italia han cambiado de postura y han llegado a afirmar que los modelos básicos deberían estar exentos en gran medida de la normativa de la Ley de IA. (Más adelante explicaré por qué).

La última ronda de negociaciones de la UE ha introducido un enfoque a dos niveles en el que los modelos fundacionales se clasifican, al menos en parte, en función de los recursos computacionales que requieren, según explica Connor. En la práctica, esto significaría que "la inmensa mayoría de los potentes modelos de propósito general solo estarían regulados por unas leves obligaciones de transparencia e intercambio de información", afirma Connor, incluidos los modelos de Anthropic, Meta y otros. "Esto supondría una reducción drástica del ámbito de aplicación [de la Ley de IA de la UE]", apunta. Además, Connor afirma que GPT-4 de OpenAI es el único modelo del mercado que entraría en el nivel superior. Aunque Gemini, el nuevo modelo de Google, también podría estar en ese nivel. (Aquí más información sobre el recién lanzado Gemini, gracias a Melissa y Will Douglas Heaver, nuestro redactor senior sobre IA).

Este debate sobre los modelos fundacionales está estrechamente ligado a otra gran cuestión: la facilidad de acceso a la industria. La UE es conocida por sus agresivas políticas digitales (como su histórica ley de privacidad de datos, conocida por sus siglas RGPD), que a menudo tratan de proteger a los europeos de las empresas tecnológicas estadounidenses y chinas. Pero en los últimos años, las empresas europeas también han empezado a emerger como importantes actores tecnológicos, como señala Melissa. Por ejemplo, Mistral AI (Francia) y Aleph Alpha (Alemania) han recaudado cientos de millones de euros en financiación para construir modelos fundacionales. Sin duda, no es una coincidencia que Francia, Alemania e Italia hayan empezado a argumentar que la Ley de IA de la UE puede ser demasiado onerosa para el sector. Según Connor, esto significa que el entorno normativo podría acabar dependiendo de compromisos voluntarios de las empresas, que más adelante podrían llegar a ser vinculantes.

"¿Cómo regulamos estas tecnologías sin obstaculizar la innovación? Obviamente, las grandes empresas tecnológicas ejercen mucha presión, pero como los países europeos tienen sus propias empresas de IA de gran éxito, quizá hayan adoptado una postura algo más favorable a la industria", afirma Melissa.

Por último, tanto Melissa como Connor señalan lo difícil que ha sido llegar a un acuerdo sobre los datos biométricos y la aplicación de la IA en el ámbito policial. "Desde el principio, uno de los mayores desacuerdos fue el uso del reconocimiento facial en lugares públicos por parte de las fuerzas de seguridad", explica Melissa.

El Parlamento Europeo presionó para que se impongan restricciones más estrictas a la biometría por temor a que la tecnología permita la vigilancia masiva, y vulnere la intimidad y otros derechos de los ciudadanos. Pero países europeos como Francia, que acogerá los Juegos Olímpicos en 2024, quieren utilizar la IA para luchar contra la delincuencia y el terrorismo.  

¿Y ahora qué?

La fecha límite del 6 de diciembre era arbitraria, pues las negociaciones continuaron pasado este día. Pero la UE se acerca a una fecha aún más dura.

Melissa y Connor cuentan que las cláusulas esenciales deben quedar resueltas varios meses antes de las elecciones europeas de junio de 2024 para evitar que la Ley se marchite por completo, o se retrase hasta 2025. Puede que, si no se llega a un acuerdo en los próximos días, el debate se reanude después de Navidad. Y, además de concretar el texto de la ley, aún queda mucho por hacer en cuanto a su aplicación y cumplimiento.

"Había muchas esperanzas puestas en que la UE marcara la pauta mundial con la primera regulación horizontal sobre IA del mundo", afirma Connor, "pero si no asigna la responsabilidad de manera correcta en toda la cadena de valor de la IA y no protege a los ciudadanos de la UE y sus derechos, este intento de liderazgo mundial se verá gravemente mermado".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla