.

Otros

Cuatro lecciones de 2023 que nos dicen hacia dónde se dirige la regulación de la IA

0

Lo que deberíamos esperar en los próximos 12 meses en política de IA

  • por Tate Ryan-Mosley | traducido por
  • 08 Enero, 2024

Este artículo es de The Technocrat, el boletín semanal de política tecnológica del MIT Technology Review sobre el poder, la política y Silicon Valley. Para recibirlo en su bandeja de entrada todos los viernes, regístrese en su correo electrónico .

En EE. UU. y otros lugares, 2023 fue un año de gran éxito para la inteligencia artificial y la regulación de la IA, y se garantiza que el próximo año traerá aún más acciones. El 5 de enero publiqué un artículo con mis colegas Melissa Heikkilä y Zeyi Yang que expone lo que deberíamos esperar en los próximos 12 meses en materia de políticas de IA en todo el mundo.

En términos más generales, es probable que veamos que las estrategias que surgieron el año pasado continúen, se amplíen y comiencen a implementarse. Por ejemplo, tras la orden ejecutiva del presidente Biden , varias agencias gubernamentales de EE. UU. pueden delinear nuevas mejores prácticas pero facultar a las empresas de IA para que se controlen a sí mismas. Y al otro lado del charco, las empresas y los reguladores comenzarán a lidiar con la Ley de IA de Europa y su enfoque basado en el riesgo. Ciertamente no será fácil y seguramente habrá mucha discusión sobre cómo funcionan realmente en la práctica estas nuevas leyes y políticas.

Mientras escribía este artículo, me tomé un tiempo para reflexionar sobre cómo llegamos hasta aquí. Creo que las historias sobre el auge de las tecnologías merecen un examen reflexivo: pueden ayudarnos a comprender mejor lo que podría suceder a continuación. Y como periodista, he visto patrones que surgen en estas historias a lo largo del tiempo, ya sea con blockchain, redes sociales, autos sin conductor o cualquier otra innovación de rápido desarrollo que cambia el mundo. La tecnología suele avanzar mucho más rápido que la regulación, y los legisladores se enfrentan cada vez más al desafío de mantenerse al día con la tecnología misma mientras idean nuevas formas de elaborar leyes sostenibles y preparadas para el futuro.

Al pensar específicamente en Estados Unidos, no estoy seguro de que lo que estamos experimentando hasta ahora no tenga precedentes, aunque ciertamente la velocidad con la que la IA generativa se ha introducido en nuestras vidas ha sido sorprendente. El año pasado, la política de IA estuvo marcada por los movimientos de poder de las grandes tecnologías, la mejora de las habilidades del Congreso y el bipartidismo (¡al menos en este espacio!), la competencia geopolítica y el rápido despliegue de tecnologías incipientes sobre la marcha.

Entonces ¿Que aprendimos? ¿Y qué hay a la vuelta de la esquina? Hay mucho que tratar de mantener al tanto en términos de políticas, pero he dividido lo que necesita saber en cuatro conclusiones.

1. Estados Unidos no planea apretarle los tornillos a las Big Tech. Pero los legisladores planean involucrar a la industria de la IA.

El director ejecutivo de OpenAI, Sam Altman, comenzó su gira por el Congreso en mayo pasado, seis meses después del espectacular lanzamiento de ChatGPT. Se reunió con legisladores en cenas privadas y testificó sobre las amenazas existenciales que su propia tecnología podría representar para la humanidad. En muchos sentidos, esto marcó el tono de cómo hemos estado hablando sobre la IA en los EE. UU., y fue seguido por el discurso de Biden sobre la IA , foros del Congreso sobre información sobre la IA para ayudar a los legisladores a ponerse al día y la publicación de más Grandes modelos lingüísticos. (En particular, la lista de invitados a estos foros sobre conocimientos de IA estaba muy inclinada hacia la industria).

A medida que los legisladores estadounidenses comenzaron a abordar realmente la IA, se convirtió en un área poco común (aunque pequeña) de bipartidismo en el Capitolio, y los legisladores de ambos partidos pidieron más barreras en torno a la tecnología. Al mismo tiempo, aumentó la actividad a nivel estatal y en los tribunales, principalmente en torno a protecciones de usuarios como la verificación de edad y la moderación de contenido .

Como escribí en el artículo: “A través de esta actividad, comenzó a surgir una versión estadounidense de la política de IA: una que es amigable con la industria de la IA, con énfasis en las mejores prácticas, una dependencia de diferentes agencias para elaborar sus propias reglas y una enfoque matizado de regular cada sector de la economía de manera diferente”. La culminación de todo esto fue la orden ejecutiva de Biden a finales de octubre , que esbozaba un enfoque distribuido de la política de IA, en el que diferentes agencias elaboran sus propias reglas. Dependerá (tal vez como era de esperar) en gran medida de la aceptación de las empresas de inteligencia artificial .

El año que viene, podemos esperar que algunas nuevas regulaciones se basen en todo esto. Como escribimos en nuestra historia de hoy, el Congreso está buscando redactar nuevas leyes y considerará proyectos de ley existentes sobre algoritmos de recomendación , privacidad de datos y transparencia que complementarán la orden ejecutiva de Biden. Los estados también considerarán sus propias regulaciones .

2. No será fácil lidiar con los daños y riesgos que plantea la IA .

Si bien el riesgo existencial ocupó los titulares más importantes el año pasado , los investigadores y defensores de los derechos humanos con frecuencia denunciaron el daño que la IA que ya está en el mercado está causando en este momento, como la perpetuación de la inexactitud y el sesgo. Advirtieron que exagerar los riesgos existenciales desviaría la atención de realidades peligrosas, como las IA médicas que diagnostican erróneamente de manera desproporcionada problemas de salud en pacientes negros y morenos.

A medida que los debates sobre cuán preocupados deberíamos estar por las próximas guerras de robots se infiltraron en los chats de mesa y en las aulas por igual, las agencias y los reguladores locales comenzaron a hacer declaraciones y emitir comunicados sobre la IA, como la declaración conjunta de abril de cuatro agencias federales, incluidas la FTC y CFPB, que advirtió que la IA tiene el “potencial de perpetuar prejuicios ilegales, automatizar la discriminación ilegal y producir otros resultados dañinos”. Sin embargo, en este momento no está nada claro cómo se monitorearán o evitarán esos resultados.

En cuanto a la industria tecnológica en sí, es probable que los actores sigan peleándose con los legisladores sobre el riesgo de los sistemas de inteligencia artificial. Las discusiones de última hora sobre la Ley de IA de la UE se centraron en una pelea sobre los modelos básicos, y este debate probablemente continuará en diferentes ámbitos este año, al igual que los debates sobre qué usos de la IA deben considerarse de alto riesgo y quién es responsable de gestionar esos riesgos.

3. La IA es la próxima frontera para el tecnonacionalismo y la competencia global.

El año pasado también dejó claro que el enfoque estadounidense hacia la IA está determinado por el deseo de lograr y mantener una ventaja tecnológica sobre China. Mientras tanto, los dos países continúan intensificando su guerra comercial por los semiconductores , que proporcionan el hardware necesario para los modelos de IA.

Más allá de mantener una ventaja en destreza tecnológica, Estados Unidos quiere ser un líder en regulación tecnológica y competir con una Europa feliz con la regulación. La orden ejecutiva de Biden cayó estratégicamente pocos días antes de la Cumbre de IA del Reino Unido y antes de que tuvieran lugar las negociaciones finales sobre la Ley de IA de la UE.

4. Observe de cerca lo que sucede en las elecciones estadounidenses y en las de todo el mundo.

Por supuesto, Estados Unidos tendrá unas grandes elecciones en 2024, pero también las tendrán muchos otros países. En mi último Technocrat de 2023, hablamos de cómo la IA generativa y otras tecnologías de medios han creado una gran preocupación por una avalancha de información engañosa e inexacta. Estoy particularmente interesado en observar cómo tanto las plataformas de redes sociales como los políticos abordan la nueva amenaza de la desinformación política como resultado de la IA generativa. Como escribí en una historia hace unos meses, los investigadores ya están viendo un impacto negativo .

Al menos una cosa es segura: la rápida entrega de IA generativa a los usuarios en 2023 afectará las elecciones de 2024, probablemente de una manera dramática y sin precedentes. Es difícil predecir realmente lo que podría suceder dada la rapidez con la que está cambiando la tecnología y la rapidez con la que los usuarios la están impulsando en direcciones diferentes e inesperadas. Entonces, incluso si los gobiernos o las empresas de redes sociales, entre otros, intentan fortalecer las salvaguardias o crear nuevas políticas, la forma en que se utilice realmente la IA generativa en 2024 será fundamental para dar forma a las regulaciones futuras.

Pase lo que pase, ¡definitivamente será un viaje interesante!

Lo que estoy leyendo esta semana

  • El New York Times está demandando a OpenAI alegando que utilizó sus artículos para entrenar ChatGPT. Es una de las historias más importantes de las últimas semanas que quizás se haya perdido, y estaba particularmente interesado en la similitud entre algunos de los resultados de ChatGPT y los artículos del NYT , como se documenta en la presentación .
  • Investigadores del Observatorio de Internet de Stanford encontraron miles de ejemplos de material de abuso sexual infantil en uno de los principales conjuntos de datos utilizados para entrenar la IA generativa. Ese conjunto de datos ahora ha sido eliminado temporalmente .
  • Los coches inteligentes están siendo utilizados como armas por socios abusivos como herramientas de vigilancia y seguimiento, según un nuevo artículo de Kashmir Hill en el New York Times . En un mundo donde casi todo tiene la capacidad de producir datos de geolocalización, me temo que este tipo de historias serán cada vez más comunes.
  • Lo que aprendí esta semana

    Mis colegas Melissa Heikkilä y Will Douglas Heaven publicaron un artículo innovador sobre lo que vendrá para la IA en 2024, ¡y pensé que todos querrían probarlo! Predicen un año de chatbots personalizados, nuevos avances en videos con IA generativa, desinformación generada por IA durante las elecciones y robots multitarea. ¡Definitivamente vale la pena leerlo!

    Otros

    1. La "voz avanzada" de OpenAI llega a más usuarios con el objetivo de ser un asistente natural

      La compañía dice que la versión actualizada responde a tus emociones y tono de voz y te permite interrumpirla a mitad de una oración.

    2. Crece la preocupación de los virólogos por la gripe aviar: "Tiene potencial pandémico"

      La pervivencia de la gripe aviar en vacas lecheras de las granjas de EE UU podría mantenerse para siempre, un factor que está aumenta el riesgo de brotes en mamíferos -incluidos los humanos- en todo el mundo.

      Aves de corral | Getty Images
    3. ¿En qué se parece nuestro genoma a un modelo de IA generativa?

      Al parecer, nuestro código genético funciona un poco como DALL-E, según un reciente artículo científico