Los expertos afirman que su énfasis en el etiquetado de contenidos, las marcas de agua y la transparencia representa un importante paso adelante
Una orden ejecutiva emitida ayer 30 de octubre por Joe Biden, presidente de EE UU, ha establecido su conjunto más amplio de normas y directrices sobre la IA. La orden exigirá más transparencia a las empresas de IA sobre el funcionamiento de sus modelos y establecerá una serie de normas nuevas, sobre todo, para etiquetar los contenidos generados por IA.
Según la Casa Blanca, el objetivo de la orden es mejorar "la seguridad y protección de la IA". También incluye el requisito de que los desarrolladores compartan los resultados de las pruebas de seguridad de los nuevos modelos de IA con el gobierno estadounidense, si las pruebas demuestran que la tecnología podría suponer un riesgo para la seguridad nacional. Es una medida sorprendente que invoca la Ley de Producción de Defensa (1950), utilizada en tiempos de emergencia nacional.
La orden ejecutiva avanza los requisitos voluntarios para la política de IA que la Casa Blanca estableció en agosto, aunque carece de detalles sobre cómo se aplicarán las normas. Las órdenes ejecutivas también pueden ser revocadas en cualquier momento por otro presidente. Además, carecen de la legitimidad de la legislación del Congreso sobre IA, que parece poco probable a corto plazo.
"El Congreso está muy polarizado y es tan disfuncional que incluso es improbable que produzca ninguna legislación significativa sobre IA en un futuro próximo", afirma Anu Bradford, profesor de Derecho de la Universidad de Columbia (Nueva York, EE UU) y especialista en regulación digital.
No obstante, los expertos en IA han acogido la orden como un importante paso hacia delante, en especial, gracias a su focalización en las marcas de agua y en las normas establecidas por el Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés). Sin embargo, otros sostienen que no llega tan lejos como para proteger a las personas contra los daños inmediatos que han sido infligidos por la IA.
Estas son los tres aspectos más importantes que debe saber sobre la orden ejecutiva y el impacto que podría tener.
¿Cuáles son las nuevas normas sobre etiquetado de contenidos generados por IA?
La orden ejecutiva de la Casa Blanca exige al Departamento de Comercio que elabore una serie de directrices para etiquetar los contenidos generados por IA. Las empresas de IA utilizarán esta guía para desarrollar herramientas de etiquetado y marcas de agua que la Casa Blanca espera que también adopten los organismos federales. "Las agencias federales utilizarán estas herramientas para facilitar que los estadounidenses sepan que las comunicaciones recibidas de su gobierno son auténticas, y servir de ejemplo para el sector privado y los gobiernos de todo el mundo", según un comunicado que la Casa Blanca compartió durante el fin de semana anterior.
La esperanza es que el etiquetado de los orígenes de los contenidos de texto, audio y vídeo en internet nos facilite saber qué se ha creado con IA. Este tipo de herramientas se proponen como una solución a los problemas que plantea la IA, como los deepfakes y la desinformación. En un compromiso voluntario con la Casa Blanca y anunciado en agosto, las principales empresas de IA, como Google y Open AI, prometió desarrollar este tipo de tecnologías.
El problema es que tecnologías como las marcas de agua aún están en fase de desarrollo. En la actualidad, no existen métodos fiables para etiquetar texto o investigar si un contenido ha sido generado por una máquina. Las herramientas de detección de IA siguen siendo fáciles de engañar.
La orden ejecutiva tampoco obliga a los agentes de la industria ni a los organismos públicos a utilizar estas tecnologías.
En una llamada con periodistas el domingo 29 de octubre, un portavoz de la Casa Blanca respondió a una pregunta de MIT Technology Review sobre si se anticipa algún requisito para el futuro, y aseguró: "Puedo imaginar una versión de una llamada como esta en unos años y habrá una firma criptográfica adjunta a ella que sabe que usted está hablando con [el equipo de prensa de la Casa Blanca] y no una versión de IA". Esta orden ejecutiva pretende "facilitar el desarrollo tecnológico que tendrá lugar antes de que podamos llegar a ese punto".
La Casa Blanca afirma que planea impulsar el desarrollo y el uso de estas tecnologías con la Coalición para la Autenticidad y Procedencia de los Contenidos, denominada iniciativa C2PA. Como hemos informado con anterioridad, la iniciativa y la comunidad de código abierto que está afiliada han crecido con rapidez en los últimos meses a medida que las empresas se apresuran a clasificar los contenidos generados por IA. Este grupo incluye a grandes empresas como Adobe, Intel y Microsoft, y ha ideado un nuevo protocolo de internet que utiliza técnicas criptográficas para codificar la información sobre el origen de un contenido.
Esta coalición no tiene una relación formal con la Casa Blanca, y tampoco está claro cómo sería esa colaboración. En respuesta a unas preguntas, Mounir Ibrahim, copresidente del equipo de Asuntos Gubernamentales, declaró: "La C2PA lleva algún tiempo en contacto regular con diversas oficinas del NSC [Consejo de Seguridad Nacional] y la Casa Blanca".
Emily Bender, catedrática de Lingüística de la Universidad de Washington (EE UU), considera positivo que se haga hincapié en el desarrollo de marcas de agua. También espera que puedan desarrollarse sistemas de etiquetado de contenidos para texto. Las tecnologías actuales de marcas de agua funcionan mejor con imágenes y audio. "[La orden ejecutiva], por supuesto, no sería un requisito para poner marcas de agua. E incluso una prueba de existencia de sistemas razonables para hacerlo sería un paso importante", asegura Bender.
¿Esta orden ejecutiva tendrá fuerza, y será aplicable?
Aunque la orden ejecutiva de Biden va más allá de los intentos anteriores del gobierno estadounidense por regular la IA, hace mayor hincapié en establecer mejores prácticas y normas que en el modo de aplicación de las nuevas directivas. O incluso si se aplicarán.
La orden pide al Instituto Nacional de Normas y Tecnología que, antes de que se lancen los modelos, establezca estándares para la realización de pruebas exhaustivas de "equipo rojo". Es decir, pruebas destinadas a romper los modelos con el fin de exponer sus vulnerabilidades. El NIST ya ha tenido cierta eficacia al documentar cuán precisos o sesgados son los sistemas de IA, como el reconocimiento facial. En 2019, un estudio del NIST de más de 200 sistemas de reconocimiento facial reveló un sesgo racial generalizado en la tecnología.
Sin embargo, la orden ejecutiva no exige que las empresas de IA se adhieran a las normas o los métodos de ensayo del NIST. “Muchos aspectos de la OE [orden ejecutiva] dependen todavía de la cooperación voluntaria de las empresas tecnológicas", afirma Bradford, profesor de Derecho en Columbia (Nueva York, EE UU).
La orden ejecutiva exige a todas las empresas desarrollar nuevos modelos de IA cuyo tamaño computacional supere un determinado umbral, notificar al gobierno federal cuando entrenen el sistema y, a continuación, compartir los resultados de las pruebas de seguridad de acuerdo con la Ley de Producción de Defensa. En el pasado, esta ley se ha utilizado para intervenir en la producción comercial en tiempos de guerra o emergencias nacionales, como la pandemia de Covid. Por tanto, es una forma poco habitual de imponer normativas. Un portavoz de la Casa Blanca afirma que este mandato será de obligado cumplimiento y se aplicará a todos los futuros modelos comerciales de IA en EE UU. Aunque podría no aplicarse a los modelos de IA que ya se hayan puesto en marcha. El umbral se ha fijado en un punto donde todos los modelos de IA importantes que puedan plantear riesgos "para la seguridad nacional, la seguridad económica nacional, o la salud y la seguridad públicas nacionales" queden incluidos en la orden, según el comunicado de la Casa Blanca.
La orden ejecutiva también pide a los organismos federales que elaboren normas y directrices para distintas aplicaciones, como el apoyo a los derechos de los trabajadores, la protección de los consumidores, la garantía de una competencia leal y la administración de servicios públicos. Estas directrices más específicas dan prioridad a la protección de la intimidad y contra los prejuicios.
"Al menos, existe el empoderamiento de otras agencias, que son capaces de abordar estas cuestiones con seriedad", afirma Margaret Mitchell, investigadora y jefa de Ética de Hugging Face, la startup de IA. "Aunque haya una batalla más dura y agotadora para algunas de las personas más afectadas por la IA con el fin de que se tomen en serio sus derechos".
Hasta ahora, ¿cuál ha sido la reacción a la orden?
Las principales empresas tecnológicas han acogido con gran satisfacción la orden ejecutiva.
Brad Smith, presidente de Microsoft, recibió esta orden como "otro paso crítico en la gobernanza de la tecnología de IA". Mientras Kent Walker, presidente de Asuntos Globales de Google, aseguró que la empresa espera "colaborar de manera constructiva con las agencias gubernamentales para maximizar el potencial de la IA, entre otros temas, al crear unos servicios gubernamentales mejores, más rápidos y seguros".
"Es estupendo ver cómo la Casa Blanca invierte en el crecimiento de la IA al crear un marco para las prácticas responsables de la IA", declaró Dana Rao, consejera general y directora de Confianza de Adobe.
El enfoque de la administración Biden sigue siendo amistoso con Silicon Valley, hace hincapié en la innovación y la competencia más que en la limitación y la restricción. La estrategia está en consonancia con las prioridades políticas para la regulación de la IA establecidas por Chuck Schumer, líder de la mayoría del Senado, y cristaliza aún más el ligero toque del enfoque estadounidense sobre la regulación de la IA.
Sin embargo, algunos investigadores de IA afirman que este tipo de perspectiva es motivo de preocupación. "Lo que más me preocupa es que se ignora mucho trabajo sobre cómo entrenar y desarrollar modelos para minimizar los daños previsibles", afirma Mitchell.
En lugar de prevenir los daños de la IA antes de su despliegue -por ejemplo, mejorando las prácticas de las empresas tecnológicas en materia de datos-, la Casa Blanca aplica un enfoque de "paso a paso" al abordar los problemas según van surgiendo, añade la jefa de Ética de Hugging Face.
La esperada orden ejecutiva sobre inteligencia artificial llega dos días antes de la Cumbre de Seguridad de la IA en Reino Unido, e intenta situar a EE UU como líder mundial en política sobre IA.
Puede que tenga implicaciones fuera de EE UU, añade Bradford. Marcará la pauta de la cumbre británica y animará a la Unión Europea a ultimar su Ley de Inteligencia Artificial, ya que la orden ejecutiva envía un mensaje claro de que EE UU está de acuerdo con muchos de los objetivos políticos de la UE.
"La orden ejecutiva es lo mejor que podemos esperar del gobierno estadounidense en este momento", concluye Bradford.
Corrección: una versión anterior de esta historia tenía el título incorrecto de Emily Bender. Esto ha sido corregido. Nos disculpamos por cualquier inconveniente.