.

STEPHANIE ARNETT / MIT TR | ENVATO

Inteligencia Artificial

¿Quién vigila a la IA? Consulta el ranking de las iniciativas globales para regularla

1

Una guía sobre los esfuerzos más (y menos) prometedores para gobernar la IA en todo el mundo

  • por Melissa Heikkilä | traducido por
  • 24 Mayo, 2023

La regulación de la IA está de moda. Desde el éxito del chatbot ChatGPT de OpenAI, la atención del público se ha dividido entre el asombro y la preocupación sobre lo que pueden hacer estas potentes herramientas de IA. La IA generativa se ha promocionado como un cambio potencial para las herramientas de productividad y los asistentes creativos. Aunque ya están mostrando las formas en que pueden ser perjudiciales. Los modelos generativos se han utilizado para generar información errónea, y podrían convertirse en armas de spam y estafa.

En las últimas semanas, desde CEOs de empresas tecnológicas hasta senadores estadounidenses y líderes del G7 han pedido una normativa internacional y límites más estrictos para la tecnología de IA. ¿Cuál es la buena noticia? Los responsables políticos no tienen que empezar de cero. 

En MIT Technology Review, hemos analizado seis intentos internacionales muy diferentes para regular la inteligencia artificial. Luego, hemos expuesto los pros y los contras de cada uno, y les hemos dado una puntuación que indica lo influyentes que creemos que son.

Un tratado de IA jurídicamente vinculante

El Consejo de Europa (COE, por sus siglas en inglés), una organización de derechos humanos conformada por 46 países, está ultimando un tratado jurídicamente vinculante sobre inteligencia artificial. El tratado exige a los firmantes que tomen medidas para garantizar que la IA se diseña, desarrolla y aplica de forma que proteja los derechos humanos, la democracia y el Estado de derecho. El tratado podría incluir moratorias sobre tecnologías que supongan un riesgo para los derechos humanos, como el reconocimiento facial.

Si todo va según lo previsto, la institución terminaría de redactar el texto en noviembre, según Nathalie Smuha, jurista y filósofa de la Facultad de Derecho de la Universidad Católica de Leuven (Bélgica) y asesora del Consejo.

Pros: El Consejo de Europa incluye a muchos países no europeos, entre ellos, Reino Unido y Ucrania. Además, ha invitado a la mesa de negociaciones a otros, como EE UU, Canadá, Israel, México y Japón. "Es una buena señal", asegura Smuha.

Contras: Cada país tiene que ratificar individualmente el tratado y luego incorporarlo a su legislación nacional, un proceso que podría llevar años. También existe la posibilidad de que los países puedan renunciar a ciertos elementos que no les gusten, como normas estrictas o moratorias. El equipo negociador intenta encontrar un equilibrio entre el refuerzo de la protección y la firma del mayor número posible de países, explica Smuha.

Valoración de la influencia: 3/5

Los principios de IA según la OECD

En 2019, los 38 países que pertenecen a la Organización para la Cooperación y el Desarrollo Económicos (OCDE) acordaron adoptar un conjunto de principios no vinculantes que establecen algunos valores que deben sustentar el desarrollo de la IA. Según estos principios, los sistemas con este tipo de inteligencia deben ser transparentes y explicables; deben funcionar de forma sólida, segura y protegida; deben contar con mecanismos de rendición de cuentas; y deben diseñarse respetando el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad. Los principios también establecen que la IA debe contribuir al crecimiento económico.

Pros: Desde entonces, estos principios, que constituyen una especie de manifiesto de la política occidental sobre la IA, han dado forma a otras iniciativas políticas en todo el mundo. Por ejemplo, es probable que la definición jurídica de IA de la OECD se adopte en la Ley de IA de la UE. La OECD también controla y supervisa las normativas nacionales sobre IA, e investiga su impacto económico. Además, cuenta con una red mundial de expertos en IA que investigan y comparten sus buenas prácticas.

Contras: El mandato de la OECD como organización internacional no consiste en elaborar normativas, sino en estimular el crecimiento económico, señala Smuha. Y traducir los principios de alto nivel en políticas viables requiere mucho trabajo por parte de cada país, afirma Phil Dawson, director de Políticas de Armilla, una plataforma de IA responsable.

Valoración de la influencia: 4/5

La Asociación Mundial sobre IA

En 2020, Justin Trudeau, el primer ministro de Canadá, y Emmanuel Macron, el presidente de Francia, crearon la Asociación Mundial sobre Inteligencia Artificial (GPAI, por sus siglas en inglés). Este organismo internacional tiene como objetivo compartir investigaciones e información sobre IA, fomentar la colaboración internacional en materia de investigación en torno a la IA responsable, e informar sobre las políticas de IA en todo el mundo. La organización incluye a 29 países, algunos de África, América Latina y Asia.

Pros:  El valor de la GPAI reside en su potencial para fomentar la investigación y la cooperación internacional, asegura Smuha.

Contras: Algunos expertos en IA han pedido un organismo internacional similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de la ONU para compartir conocimientos e investigaciones sobre IA, y GPAI tenía potencial para encajar en el proyecto. Sin embargo, después de su lanzamiento a bombo y platillo, la organización ha mantenido un perfil bajo y no ha publicado ningún trabajo en 2023.

Valoración de la influencia: 1/5

La Ley de IA de la UE

La Unión Europea está ultimando la Ley de Inteligencia Artificial, una amplia normativa que pretende regular los usos con mayor "riesgo" de los sistemas de IA. Esta fue propuesta por primera vez en 2021, y regulará la IA en sectores como la sanidad y la educación. 

Pros: La ley podría responsabilizar a los malos actores y evitar los excesos más perjudiciales de la IA mediante la imposición de grandes multas, y la prevención de venta y uso de tecnología contraria a la UE. El proyecto de ley también regulará la IA generativa e impondrá algunas restricciones a los sistemas que se considere que crean un riesgo "inaceptable", como el reconocimiento facial. Al ser la única normativa exhaustiva sobre IA, la UE es la primera en tomar la iniciativa. Es probable que el régimen de la UE acabe siendo de facto la normativa mundial sobre IA, ya que las empresas de países que no pertenecen a la UE y quieran hacer negocios en este bloque comercial tendrán que ajustar sus prácticas para cumplir la ley.

Contras: Muchos elementos del proyecto de ley, como la prohibición del reconocimiento facial y los planteamientos para regular la IA generativa, son muy controvertidos. Además, la UE se enfrentará a lobbies de las empresas tecnológicas que presionarán para suavizar la normativa. Por tanto, pasarán al menos un par de años antes de que la ley se abra camino a través del sistema legislativo de la UE y entre en vigor.

Valoración de la influencia: 5/5

Normas técnicas del sector

Las normas técnicas de los organismos de estandarización desempeñarán un papel cada vez más crucial a la hora de traducir la regulación en sencillas reglas que las empresas puedan seguir, opina Dawson. Por ejemplo, cuando se apruebe la Ley de la UE, las empresas que cumplan determinadas normas técnicas se ajustarán automáticamente a dicha ley. Ya existen varias normas sobre IA, y hay más en camino. La Organización Internacional de Estandarización (ISO) ya ha elaborado algunas normas sobre cómo las empresas deben realizar la gestión de riesgos y las evaluaciones de impacto, así como gestionar el desarrollo de la IA.

Pros: Estas normas ayudan a que las empresas lleven una complicada regulación a la práctica. A medida que los países empiecen a redactar sus propias leyes individuales para la IA, las normas ayudarán a las empresas a crear productos que funcionen en múltiples jurisdicciones, según afirma Dawson.

Contras: La mayoría de las normas son genéricas, y se aplican a distintos sectores. Por tanto, las empresas tendrán que interpretarlas para utilizarlas en su sector concreto. Esto podría suponer una gran carga para las pequeñas empresas, sugiere Dawson. Uno de los puntos más controvertidos es si los expertos técnicos y los ingenieros deben redactar las normas sobre riesgos éticos. "A muchos les preocupa que los responsables políticos se limiten a trasladar las cuestiones difíciles sobre buenas prácticas a la elaboración de normas industriales", añade Dawson.

Valoración de la influencia: 4/5

Naciones Unidas

Naciones Unidas, que cuenta con 193 países miembro, quiere ser la organización internacional que apoye y facilite la coordinación global en materia de IA. Para ello, en 2021 la ONU creó un nuevo enviado de Tecnología. Ese mismo año, la UNESCO (agencia de la ONU) y los países miembro también adoptaron un marco voluntario de ética de la IA. En este, los miembros se comprometen, por ejemplo, a introducir evaluaciones de impacto ético para la IA, evaluar su impacto ambiental y garantizar que se promueva la igualdad de género y no se utiliza para la vigilancia masiva.

Pros: La ONU es el único lugar significativo de la escena internacional donde los países del sur global han podido influir en la política de IA. Mientras que Occidente se ha comprometido con los principios de la OECD, el marco ético de la IA de la UNESCO ha tenido una enorme influencia en los países emergentes, que son los nuevos en tratar la ética de la IA. En especial, China y Rusia, excluidas en gran medida de los debates occidentales sobre la ética de la IA, también han firmado los principios. 

Contras: Esto plantea una cuestión sobre la sinceridad de los países a la hora de seguir las directrices éticas voluntarias, ya que muchos países, como China y Rusia, han utilizado la IA para vigilar a la ciudadanía. La ONU también tiene un historial irregular en lo que respecta a la tecnología. Su primer intento de coordinar la tecnología mundial fue un fracaso: el diplomático elegido como enviado de Tecnología fue suspendido a los cinco días tras un escándalo de acoso. Y los intentos de la ONU de establecer normas para los drones autónomos letales, también conocidos como robots asesinos, no han progresado en años.

Valoración de la influencia: 2/5

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla