La votación de la Ley de Inteligencia Artificial de la Unión Europea fue aprobada por una abrumadora mayoría, pero puede que la versión final sea un poco diferente
Al mismo tiempo que los legisladores de la UE presentaron una nueva demanda antimonopolio contra Google, la votación del Parlamento Europeo para aprobar su proyecto de Ley de Inteligencia Artificial ponía la guinda a una importante semana para la política tecnológica en Europa.
La votación de la Ley de IA se aprobó por abrumadora mayoría y ha sido anunciada como uno de los avances más importantes del mundo sobre la regulación de la IA. Roberta Metsola, presidenta del Parlamento Europeo, la describió como "una legislación que, sin duda, marcará la pauta mundial en los próximos años".
Sin embargo, no se espera que todas las cuestiones se aclaren de inmediato ya que el sistema europeo es complejo. A partir de ahora, los miembros del Parlamento Europeo tendrán que discutir los detalles con el Consejo de la Unión Europea y la Comisión Europea, el brazo ejecutivo de la UE. Después, el proyecto de ley se convertirá en legislación. Esta versión final será un compromiso entre tres proyectos diferentes de tres instituciones muy distintas. Es posible que pasen unos dos años antes de que la ley se aplique realmente.
Gracias a la votación del 14 de junio, se aprobó la posición del Parlamento Europeo en las próximas negociaciones. Con una estructura similar a la Ley de Servicios Digitales de la UE, un marco jurídico para las plataformas online, la Ley de IA adopta un "enfoque basado en el riesgo". Ya que introduce restricciones basadas en el grado de peligrosidad que los legisladores prevén que tendría una aplicación de IA. Las empresas también tendrán que presentar sus propias evaluaciones de riesgo sobre su uso de la inteligencia artificial.
Algunas aplicaciones de la IA se prohibirán por completo, si los legisladores consideran que el riesgo es inaceptable. Mientras que las tecnologías consideradas de "alto riesgo" tendrán nuevas limitaciones en su uso y requisitos en torno a la transparencia.
Estas son algunas de las principales implicaciones:
-
Prohibición de la IA de reconocimiento de emociones. El borrador del Parlamento Europeo prohíbe el uso de la IA que intente reconocer las emociones de las personas bajo vigilancia, o en espacios como las escuelas y los lugares de trabajo. Los fabricantes de software de reconocimiento de emociones afirman que la IA es capaz de determinar cuándo un estudiante no está entendiendo cierta materia, o cuándo el conductor de un coche puede quedarse dormido. El uso de la IA para la detección y el análisis facial ha sido criticado por su inexactitud y parcialidad, pero no se ha prohibido en el borrador de las otras dos instituciones. Esto sugiere que se avecina una lucha política.
-
Prohibición de la biometría en tiempo real y la vigilancia predictiva en los espacios públicos. Será una gran batalla legislativa, ya que los distintos organismos de la UE tendrán que decidir si la prohibición se aplica por ley y cómo. Los grupos de vigilancia no están a favor de prohibir las tecnologías biométricas en tiempo real, que consideran necesarias para una policía moderna. Algunos países, como Francia, tienen previsto aumentar el uso del reconocimiento facial.
-
Prohibición de puntuación social. Se prohibiría la calificación social por parte de las agencias públicas, o la práctica de utilizar datos sobre el comportamiento social de las personas para hacer generalizaciones y perfiles. Dicho esto, la perspectiva de la calificación social, comúnmente asociada con China y otros gobiernos autoritarios, no es tan simple como parece . La práctica de utilizar datos de comportamiento social para evaluar a las personas es común en la concesión de hipotecas y la fijación de tarifas de seguros, así como en la contratación y la publicidad.
-
Nuevas restricciones para la IA generativa. Este borrador es el primero que propone formas de regular la IA generativa y prohíbe el uso de cualquier material protegido por derechos de autor en el entrenamiento de grandes modelos lingüísticos, como el GPT-4 de OpenAI. Esta empresa ya ha estado bajo la lupa de los legisladores europeos debido a la preocupación por la privacidad de los datos y los derechos de autor. El proyecto de ley también exige que los contenidos generados por IA se etiqueten como tales. Ahora, el Parlamento Europeo tiene que vender su política a la Comisión Europea y a los distintos países, que se enfrentarán a la presión de la industria tecnológica.
-
Nuevas restricciones a los algoritmos de recomendación en redes sociales. El nuevo borrador asigna a los sistemas de recomendación una categoría de "alto riesgo", lo que supone un grado mayor con respecto a las otras propuestas de ley. Esto significa que, si se aprueba, los sistemas de recomendación de las redes sociales estarán sujetos a una inspección mayor sobre su funcionamiento. Y las empresas tecnológicas podrían ser más responsables del impacto de los contenidos generados por los usuarios.
Los riesgos de la IA descritos por Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, están muy extendidos. Vestager destacó su preocupación por el futuro de la confianza en la información, la vulnerabilidad ante la manipulación social por parte de actores con malas intenciones y la vigilancia masiva.
"Si acabamos en una situación donde no creemos nada, habremos socavado nuestra sociedad por completo", declaró Vestager a la prensa.
Lecturas recomendadas:
-
Un soldado ruso se rindió ante un dron de asalto ucraniano, según un vídeo publicado por Wall Street Journal. Esto tuvo lugar en mayo, en la ciudad oriental de Bajmut (Ucrania). El operador del dron decidió perdonar la vida del soldado, de acuerdo con el derecho internacional, al ver su súplica. Los drones han sido fundamentales en la guerra, y la rendición es una mirada fascinante al futuro de la guerra.
-
Muchos usuarios de Reddit han protestado por los cambios en la API sobre la eliminación o reducción de la funcionalidad de las aplicaciones y herramientas de terceros. Como protesta, algunas comunidades se han "vuelto privadas", lo que significa que las páginas ya no son accesibles públicamente. Reddit es conocido por el poder que otorga a sus usuarios, pero ahora podría estar arrepintiéndose de ello, según la aguda evaluación de Casey Newton.
-
Los trabajadores que entrenaron a Bard, el gran modelo lingüístico de Google , afirman que fueron despedidos tras plantear dudas sobre sus condiciones de trabajo y problemas de seguridad con la propia IA. Los exempleados afirman que se les obligó a cumplir plazos poco razonables, lo que suscitó dudas sobre su precisión. Google afirma que la responsabilidad recae en Appen, la agencia que contrata a los trabajadores. Si la historia nos enseña algo, es que habrá un coste humano en la carrera por dominar la IA generativa.
-
Human Rights Watch publicó un informe en profundidad sobre un algoritmo utilizado para repartir prestaciones sociales en Jordania. El organismo detectó algunos problemas importantes con el algoritmo, financiado por el Banco Mundial, y afirmó que el sistema se basaba en supuestos incorrectos y excesivamente simplificados sobre la pobreza. Los autores del informe también denuncian la falta de transparencia y advierten contra proyectos similares del Banco Mundial. Un artículo sobre las conclusiones.
-
Mientras tanto, crece la tendencia a utilizar algoritmos en los servicios públicos. Elizabeth Renieris, autora de Beyond Data: Reclaiming Human Rights at the Dawn of the Metaverse, hizo hincapié en el impacto que este tipo de sistemas tendrá en el futuro. "A medida que el acceso a las prestaciones se vuelva digital por defecto, es menos probable que estas ayudas lleguen a quienes más las necesitan y solo ahondan la brecha digital. Este es un excelente ejemplo de cómo la automatización expansiva puede afectar directa y negativamente a las personas, y es la conversación sobre los riesgos de la IA en la que deberíamos centrarnos ahora", aseguró.