.

Otros

Un legislador de Nueva York quiere recoger los pedazos del proyecto de ley de inteligencia artificial de California

0

El nuevo proyecto de ley que se está redactando en Nueva York tiene como objetivo regular los sistemas de inteligencia artificial avanzados y al mismo tiempo abordar las preocupaciones planteadas por el proyecto de ley de California.

  • por Scott J Mulligan | traducido por
  • 09 Enero, 2025

El primer demócrata en la historia de Nueva York con formación en informática quiere revivir algunas de las ideas detrás del fallido proyecto de ley de seguridad de la IA en California, SB 1047 , con una nueva versión en su estado que regularía los modelos de IA más avanzados. Se llama Ley RAISE, un acrónimo de “Seguridad y educación responsables en materia de IA”.

El asambleísta Alex Bores espera que su proyecto de ley, actualmente un borrador inédito (sujeto a cambios) que MIT Technology Review ha visto, aborde muchas de las preocupaciones que bloquearon la aprobación de la SB 1047.

Al principio, se pensó que la SB 1047 sería un proyecto de ley bastante modesto que se aprobaría sin demasiado ruido. De hecho, fue aprobada en el Congreso estatal de California con amplios márgenes y recibió un importante apoyo público .

Sin embargo, antes de que llegara al escritorio del gobernador Gavin Newsom para su firma en septiembre, desencadenó una intensa lucha nacional. Google, Meta y OpenAI se manifestaron en contra del proyecto de ley, junto con importantes demócratas del Congreso como Nancy Pelosi y Zoe Lofgren . Incluso las celebridades de Hollywood se involucraron, con Jane Fonda y Mark Hamill expresando su apoyo al proyecto de ley.

Finalmente, Newsom vetó la SB 1047, eliminando así la regulación de los llamados modelos de IA de frontera no solo en California sino, con la falta de leyes a nivel nacional , en cualquier lugar de Estados Unidos, donde se desarrollan los sistemas más poderosos.

Ahora Bores espera reactivar la batalla. Las principales disposiciones de la Ley RAISE incluyen la exigencia de que las empresas de inteligencia artificial desarrollen planes de seguridad para el desarrollo y la implementación de sus modelos.

El proyecto de ley también ofrece protección a los denunciantes de irregularidades en las empresas de inteligencia artificial. Prohíbe las represalias contra un empleado que comparta información sobre un modelo de inteligencia artificial con la creencia de que puede causar un “daño crítico”; dichos denunciantes pueden informar de la información al fiscal general de Nueva York. Una forma en que el proyecto de ley define el daño crítico es el uso de un modelo de inteligencia artificial para crear un arma química, biológica, radiológica o nuclear que provoque la muerte o lesiones graves a 100 o más personas.

Alternativamente, un daño crítico podría ser un uso del modelo de IA que resulte en 100 o más muertes o al menos mil millones de dólares en daños en un acto con supervisión humana limitada que, de ser cometido por un humano, constituiría un delito que requiere intención, imprudencia o negligencia grave.

Los planes de seguridad garantizarían que una empresa cuente con protecciones de ciberseguridad para evitar el acceso no autorizado a un modelo. El plan también exigiría la realización de pruebas de los modelos para evaluar los riesgos antes y después del entrenamiento, así como descripciones detalladas de los procedimientos para evaluar los riesgos asociados con las modificaciones posteriores al entrenamiento. Por ejemplo, algunos sistemas de IA actuales tienen protecciones que un actor malintencionado puede eliminar de forma fácil y económica. Un plan de seguridad tendría que abordar cómo la empresa planea mitigar estas acciones.

Los planes de seguridad serían auditados por un tercero, como una organización sin fines de lucro con experiencia técnica que actualmente prueba modelos de inteligencia artificial. Y si se encuentran violaciones, el proyecto de ley faculta al fiscal general de Nueva York a imponer multas y, si es necesario, recurrir a los tribunales para determinar si se debe detener el desarrollo inseguro.

Un sabor diferente de factura

Los planes de seguridad y las auditorías externas fueron elementos de la SB 1047, pero Bores pretende diferenciar su proyecto de ley del de California. “Nos centramos mucho en las opiniones que recibimos sobre la 1047”, afirma. “Algunas críticas fueron de buena fe y podrían aportar mejoras. Por eso hemos realizado muchos cambios”.

La Ley RAISE difiere de la SB 1047 en algunos aspectos. Por un lado, la SB 1047 habría creado la Junta de Modelos Fronterizos, encargada de aprobar actualizaciones a las definiciones y regulaciones en torno a estos modelos de IA, pero la ley propuesta no crearía un nuevo organismo gubernamental. El proyecto de ley de Nueva York tampoco crea un clúster de computación en la nube pública, que habría hecho la SB 1047. El clúster estaba destinado a apoyar proyectos para desarrollar IA para el bien público.

La Ley RAISE no incluye el requisito de la SB 1047 de que las empresas puedan detener todas las operaciones de su modelo, una capacidad a la que a veces se hace referencia como "interruptor de apagado". Algunos críticos alegaron que la disposición de apagado de la SB 1047 perjudicaría a los modelos de código abierto, ya que los desarrolladores no pueden apagar un modelo que otra persona pueda poseer ahora (aunque la SB 1047 tenía una exención para los modelos de código abierto).

La Ley RAISE evita por completo la lucha. La SB 1047 hacía referencia a una “amenaza persistente avanzada” asociada con actores maliciosos que intentan robar información durante el entrenamiento de los modelos. La Ley RAISE elimina esa definición y se limita a abordar los daños críticos de los modelos cubiertos.

¿Centrándose en los temas equivocados?

El proyecto de ley de Bores es muy específico con sus definiciones en un esfuerzo por delinear claramente de qué se trata y de qué no se trata. La Ley RAISE no aborda algunos de los riesgos actuales de los modelos de IA, como el sesgo, la discriminación y el desplazamiento laboral. Al igual que la SB 1047, se centra en los riesgos catastróficos de los modelos de IA de vanguardia.

Algunos miembros de la comunidad de IA creen que este enfoque es erróneo. “Apoyamos en general cualquier esfuerzo por exigir responsabilidades a los grandes modelos”, afirma Kate Brennan, directora asociada del AI Now Institute, que realiza investigaciones sobre políticas de IA.

"Pero definir los daños críticos solo en términos de los daños más catastróficos de los modelos más avanzados pasa por alto los riesgos materiales que plantea la IA, ya sean trabajadores sujetos a mecanismos de vigilancia, propensos a lesiones en el lugar de trabajo debido a tasas de velocidad administradas algorítmicamente, impactos climáticos de sistemas de IA a gran escala, centros de datos que ejercen una presión masiva sobre las redes eléctricas locales o la construcción de centros de datos eludiendo protecciones ambientales clave", dice.

Bores ha trabajado en otros proyectos de ley que abordan los daños actuales que plantean los sistemas de IA, como la discriminación y la falta de transparencia. Dicho esto, Bores tiene claro que este nuevo proyecto de ley tiene como objetivo mitigar los riesgos catastróficos de los modelos más avanzados. “No estamos hablando de cualquier modelo que exista en este momento”, dice. “Estamos hablando de modelos verdaderamente de vanguardia, aquellos que están al límite de lo que podemos construir y de lo que entendemos, y eso conlleva riesgos”.

El proyecto de ley sólo cubriría los modelos que superan un cierto umbral de la cantidad de cálculos que requiere su entrenamiento, normalmente medidos en FLOP (operaciones de punto flotante). En el proyecto de ley, un modelo cubierto es aquel que requiere más de 10 26 FLOP en su entrenamiento y cuesta más de 100 millones de dólares. Como referencia, se estima que GPT-4 requirió 10 25 FLOP.

Este enfoque puede generar escrutinio por parte de las fuerzas del sector. “Si bien no podemos comentar específicamente sobre la legislación que aún no es pública, creemos que una regulación eficaz debería centrarse en aplicaciones específicas en lugar de en categorías de modelos amplias”, dice un portavoz de Hugging Face, una empresa que se opuso a la SB 1047.

Primeros días

El proyecto de ley se encuentra en sus etapas iniciales, por lo que está sujeto a muchas modificaciones en el futuro y aún no se ha formado ninguna oposición. Sin embargo, es posible que ya haya lecciones que aprender de la batalla sobre la SB 1047. "Hay un desacuerdo significativo en el espacio, pero creo que el debate sobre la legislación futura se beneficiaría de una mayor claridad sobre la gravedad, la probabilidad y la inminencia de los daños", dice Scott Kohler, un académico del Carnegie Endowment for International Peace, que siguió el desarrollo de la SB 1047.

Cuando se le preguntó sobre la idea de establecer planes de seguridad obligatorios para las empresas de inteligencia artificial, el asambleísta Edward Ra, un republicano que aún no ha visto un borrador del nuevo proyecto de ley, dijo: "No tengo ningún problema general con la idea de hacerlo. Esperamos que las empresas sean buenos ciudadanos corporativos, pero a veces es necesario poner algo de eso por escrito".

Ra y Bores copresiden el New York Future Caucus, que tiene como objetivo reunir a legisladores de 45 años o menos para abordar cuestiones urgentes que afectan a las generaciones futuras.

Scott Wiener, senador estatal de California que patrocinó la SB 1047, está feliz de ver que su proyecto de ley inicial, aunque fracasó, está inspirando más legislación y debates. “El proyecto de ley desencadenó una conversación sobre si deberíamos confiar en que los laboratorios de inteligencia artificial tomen buenas decisiones, lo que algunos harán, pero sabemos por experiencia pasada que algunos no tomarán buenas decisiones, y es por eso que es importante un nivel de regulación básica para una tecnología increíblemente poderosa”, dice.

Tiene sus propios planes para reactivar la lucha: “No hemos terminado en California. Seguiremos trabajando allí, incluso el año que viene. Soy optimista y creo que California va a poder hacer algunas cosas buenas”.

Y algunos creen que la Ley RAISE pondrá de relieve una contradicción notable: muchos de los actores de la industria insisten en que quieren una regulación, pero cuando se propone alguna regulación, se oponen a ella. “La SB 1047 se convirtió en un referéndum sobre si la IA debería ser regulada o no”, dice Brennan. “Hay muchas cosas que vimos con la 1047 que podemos esperar que se repitan en Nueva York si se presenta este proyecto de ley. Deberíamos estar preparados para ver una reacción masiva de lobby que la industria va a presentar incluso ante la regulación más laxa”.

Tanto Wiener como Bores desean que se regule a nivel nacional, pero, en ausencia de una legislación al respecto, han asumido la tarea por sí mismos. Al principio puede parecer extraño que los estados adopten reformas tan importantes, pero California alberga las sedes de las principales empresas de inteligencia artificial, y Nueva York, que tiene la tercera economía estatal más grande de Estados Unidos, alberga las oficinas de OpenAI y otras empresas de inteligencia artificial. Los dos estados pueden estar bien posicionados para liderar la conversación en torno a la regulación.

“Existe incertidumbre sobre la dirección que tomará la política federal con la transición que se avecina y sobre el papel del Congreso”, dice Kohler. “Es probable que los estados sigan avanzando en esta área”.

¿Cuál es el consejo de Wiener para los legisladores de Nueva York que se adentran en el ámbito de la regulación de la IA? “Abróchense los cinturones y prepárense”.

Otros

  1. Robotaxis

    Las 10 Tecnologías Emergentes 2025: los coches sin conductor solicitados mediante 'apps' se extienden a más ciudades

  2. Combustible más limpio para aviones

    Las 10 Tecnologías Emergentes 2025: los combustibles alternativos fabricados a partir de desechos industriales o dióxido de carbono podrían ayudar a reducir las emisiones climáticas de la aviación

  3. Robots que aprenden rápido

    Las 10 Tecnologías Emergentes 2025: los avances de la IA han hecho que sea más rápido que nunca entrenar a los robots para realizar nuevas tareas