.

Ms. Tech

Inteligencia Artificial

Los 10 principios para que la IA sea justa, transparente y segura

1

El Gobierno de EE. UU. ha presentado un decálogo que sus agencias deberán seguir cuando propongan nuevas regulaciones sobre inteligencia artificial para el sector privado. Tras los avances de China en este campo, el anuncio supone un cambio radical frente a su postura anterior de no interferir en la industria

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Enero, 2020

El Gobierno de EE. UU. ha publicado 10 principios que sus agencias gubernamentales deberán cumplir cuando propongan nuevas regulaciones sobre inteligencia artificial (IA) para el sector privado. Esta medida es el último paso de la "Iniciativa Estadounidense sobre la IA", lanzada por orden ejecutiva de su presidente, Donald Trump, a principios del año pasado con el fin de crear una estrategia nacional para la IA. También es parte del esfuerzo permanente de país para mantener el liderazgo en este campo.

Los principios, publicados por la Oficina de Política Científica y Tecnológica de EE. UU. (OSTP, por sus siglas en inglés), tienen tres objetivos principales: garantizar la participación pública, limitar el exceso regulatorio y, lo más importante, promover una IA fidedigna, justa, transparente y segura. Durante la rueda de prensa de presentación, la subdirectora de Tecnología de Estados Unidos, Lynne Parker, afirmo que los principios están definidos de manera amplia deliberadamente para permitir que cada agencia establezca regulaciones más específicas adaptadas a su sector.

En la práctica, ahora se requerirá que las agencias federales de EE. UU. presenten un memorando a la OSTP para explicar cómo cualquier regulación propuesta relacionada con IA cumple con estos principios. Aunque la oficina no está autorizada a reprobar las regulaciones, este procedimiento podría crear la presión y coordinación necesarias para mantener un determinado estándar.

"La OSTP está intentando crear un tamiz regulatorio. Un proceso como este parece un intento muy razonable de incorporar un control de calidad en la política sobre la IA", opina el director del Proyecto sobre la Tecnología, Economía y Seguridad Nacional del MIT, R. David Edelman.

Los principios (según mi interpretación) son los siguientes:

  1. Confianza pública en la IA. El Gobierno debe promover aplicaciones de IA fiables, sólidas y fidedignas.

  2. Participación pública. La sociedad debería tener la oportunidad de dar su opinión en todas las etapas del proceso de la elaboración de normas.

  3. Integridad científica y calidad de la información. Las decisiones políticas se deben basar en la ciencia. 

  4. Evaluación y gestión de riesgos. Las agencias deben decidir qué riesgos son aceptables y cuáles no.

  5. Beneficios y costes. Las agencias deben sopesar los impactos sociales de todas las regulaciones propuestas.

  6. Flexibilidad. Cualquier enfoque debe poder adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.

  7. Trato justo y sin discriminación. Las agencias deben asegurarse de que los sistemas de IA no discriminen.

  8. Divulgación y transparencia. La sociedad confiará en la inteligencia artificial solo cuando sepa cuándo y cómo se utiliza.

  9. Seguridad y protección. Las agencias deben mantener seguros y protegidos todos los datos utilizados por los sistemas de IA.

  10. Coordinación entre las agencias. Las agencias deben hablar entre ellas para ser coherentes y previsibles en las políticas relacionadas con la IA.

El nuevo plan representa un notable cambio de sentido frente a la postura de la Casa Blanca de hace menos de dos años, cuando las personas que trabajaban en la administración Trump aseguraron que no tenían ninguna intención de crear una estrategia nacional de inteligencia artificial. En cambio, la administración argumentó que minimizar la interferencia del Gobierno era la mejor manera de ayudar a que la tecnología prosperara.

Pero al ver que cada vez más gobiernos de todo el mundo, y especialmente China, invierten tanto en IA, Estados Unidos ha sentido una gran presión para seguir su ejemplo. Durante la rueda de prensa, los representantes ofrecieron una nueva lógica para este cambio de postura del Gobierno en el desarrollo de la IA. 

El director de Tecnología de EE. UU., Michael Kratsios, afirmó: "Los principios regulatorios de EE. UU. para la IA ofrecen orientación oficial y reducen la incertidumbre para los innovadores acerca de cómo su propio Gobierno aborda la regulación de las tecnologías de inteligencia artificial". Añadió que su decálogo estimulará aún más la innovación, lo que permitirá a Estados Unidos dar forma al futuro de la tecnología a nivel mundial y contrarrestar las influencias de los regímenes autoritarios.

Hay varias maneras en las que esto podría ocurrir. Si se hace bien, alentaría a las agencias a contratar más personal con conocimientos técnicos, a crear definiciones y estándares para una IA fidedigna y llevaría a una regulación más reflexiva en general. Si se hace mal, podría animar a las agencias a evitar los requisitos o poner obstáculos burocráticos a las regulaciones necesarias para garantizar una IA fiable.

Edelman es optimista y concluye: "El hecho de que la Casa Blanca destaque la IA fiable como un objetivo resulta muy importante. Envía un importante mensaje a las agencias".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla