.

Otros

Cómo los jueces, no los políticos, podrían dictar las reglas de IA de Estados Unidos

0

Con los políticos luchando por frenar los daños de la IA, es el momento de auge para los abogados tecnológicos.

  • por Melissa Heikkilä | traducido por
  • 17 Julio, 2023

Cada vez es más claro que los tribunales, no los políticos, serán los primeros en determinar los límites sobre cómo se desarrolla y utiliza la IA en los EE. UU.

La semana pasada, la Comisión Federal de Comercio abrió una investigación sobre si OpenAI violó las leyes de protección al consumidor al recopilar los datos en línea de las personas para entrenar a su popular chatbot de IA, ChatGPT. Mientras tanto, artistas, autores y la compañía de imágenes Getty están demandando a compañías de inteligencia artificial como OpenAI, Stability AI y Meta, alegando que violaron las leyes de derechos de autor al capacitar a sus modelos en su trabajo sin brindar ningún reconocimiento o pago.

Si estos casos resultan exitosos, podrían obligar a OpenAI, Meta, Microsoft y otros a cambiar la forma en que se construye, entrena e implementa la IA para que sea más justa y equitativa.

También podrían crear nuevas formas para que artistas, autores y otros sean compensados por el uso de su trabajo como datos de entrenamiento para modelos de IA, a través de un sistema de licencias y regalías.

El auge de la IA generativa ha revivido el entusiasmo de los políticos estadounidenses por aprobar leyes específicas de IA. Sin embargo, es poco probable que se apruebe tal legislación el próximo año, dada la división del Congreso y el intenso cabildeo de las empresas tecnológicas, dice Ben Winters, asesor principal del Centro de información de privacidad electrónica. Incluso el intento más destacado de crear nuevas reglas de IA, el marco de innovación SAFE del senador Chuck Schumer, no incluye ninguna propuesta de política específica.

“Parece que el camino más sencillo [hacia un libro de reglas de IA es] comenzar con las leyes existentes en los libros”, dice Sarah Myers West, directora gerente del AI Now Institute, un grupo de investigación.

Y eso significa juicios.

Demandas a la izquierda, a la derecha y al centro

Las leyes existentes han proporcionado muchas municiones para aquellos que dicen que sus derechos han sido dañados por las empresas de IA.

El año pasado, esas compañías se vieron afectadas por una ola de demandas, la más reciente de la comediante y autora Sarah Silverman, quien afirma que OpenAI y Meta extrajeron ilegalmente de Internet su material protegido por derechos de autor para entrenar a sus modelos. Sus reclamos son similares a los de los artistas en otra demanda colectiva que alega que el popular software de IA de generación de imágenes usó sus imágenes protegidas por derechos de autor sin consentimiento. Copilot, la herramienta de programación asistida por IA de Microsoft, OpenAI y GitHub, también se enfrenta a una demanda colectiva que afirma que se basa en la "piratería de software en una escala sin precedentes" porque está entrenado en el código de programación existente extraído de sitios web.

Mientras tanto, la FTC está investigando si las prácticas de privacidad y seguridad de datos de OpenAI son injustas y engañosas, y si la empresa causó daños, incluidos daños a la reputación, a los consumidores cuando entrenó sus modelos de IA. Tiene evidencia real para respaldar sus preocupaciones: OpenAI tuvo una brecha de seguridad a principios de este año después de que un error en el sistema provocó que se filtrara el historial de chat de los usuarios y la información de pago. Y los modelos de lenguaje de IA a menudo arrojan contenido inexacto e inventado, a veces sobre personas.

OpenAI es optimista sobre la investigación de la FTC, al menos en público. Cuando se contactó para hacer comentarios, la compañía compartió un hilo de Twitter del CEO Sam Altman en el que dijo que la compañía “confía en que cumplimos con la ley”.

Una agencia como la FTC puede llevar a las empresas a los tribunales, hacer cumplir los estándares contra la industria e introducir mejores prácticas comerciales, dice Marc Rotenberg, presidente y fundador del Center for AI and Digital Policy (CAIDP), una organización sin fines de lucro. CAIDP presentó una queja ante la FTC en marzo pidiéndole que investigara OpenAI. La agencia tiene el poder de crear de manera efectiva nuevas medidas de protección que les digan a las empresas de IA lo que pueden y no pueden hacer, dice Myers West.

La FTC podría exigir que OpenAI pague multas o elimine cualquier dato que se haya obtenido ilegalmente, y que elimine los algoritmos que usaron los datos recopilados ilegalmente, dice Rotenberg. En el caso más extremo, ChatGPT podría desconectarse. Hay un precedente para esto: la agencia hizo que la compañía de dietas Weight Watchers borrara sus datos y algoritmos en 2022 después de recopilar ilegalmente datos de niños.

Es muy posible que otras agencias gubernamentales encargadas de hacer cumplir la ley también inicien sus propias investigaciones. La Oficina de Protección Financiera del Consumidor ha señalado que está investigando el uso de chatbots de IA en la banca, por ejemplo. Y si la IA generativa juega un papel decisivo en las próximas elecciones presidenciales de EE. UU. de 2024, la Comisión Federal de Elecciones también podría investigar, dice Winters.

Mientras tanto, deberíamos comenzar a ver los resultados de las demandas, aunque podrían pasar al menos un par de años antes de que las demandas colectivas y la investigación de la FTC lleguen a los tribunales.

Un juez desestimará muchas de las demandas que se han presentado este año por ser demasiado amplias, reconoce Mehtab Khan, miembro residente de la Facultad de Derecho de Yale, que se especializa en propiedad intelectual, gobierno de datos y ética de IA. Pero todavía tienen un propósito importante. Los abogados están lanzando una amplia red y viendo qué pega. Esto permite casos judiciales más precisos que podrían llevar a las empresas a cambiar la forma en que construyen y usan sus modelos de IA en el futuro, agrega.

Las demandas también podrían obligar a las empresas a mejorar sus prácticas de documentación de datos, dice Khan. Por el momento, las empresas de tecnología tienen una idea muy rudimentaria de qué datos se incluyen en sus modelos de IA. Una mejor documentación de cómo han recopilado y utilizado los datos podría exponer cualquier práctica ilegal, pero también podría ayudarlos a defenderse en los tribunales.

La historia se repite

No es inusual que las demandas produzcan resultados antes de que entren en vigor otras formas de regulación; de hecho, así es exactamente como Estados Unidos ha manejado las nuevas tecnologías en el pasado, dice Khan.

Su enfoque difiere del de otros países occidentales. Si bien la UE está tratando de prevenir los peores daños de la IA de manera proactiva, el enfoque estadounidense es más reactivo. Estados Unidos espera a que surjan los daños antes de regular, dice Amir Ghavi, socio del bufete de abogados Fried Frank. Ghavi está representando a Stability AI, la compañía detrás de AI Stable Diffusion generadora de imágenes de código abierto, en tres demandas por derechos de autor.

“Esa es una postura pro-capitalista”, dice Ghavi. “Fomenta la innovación. Da a los creadores e inventores la libertad de ser un poco más audaces al imaginar nuevas soluciones”.

Las demandas colectivas sobre los derechos de autor y la privacidad podrían arrojar más luz sobre cómo funcionan los algoritmos de IA de "caja negra" y crear nuevas formas para que los artistas y autores sean compensados por el uso de su trabajo en modelos de IA, dice Joseph Saveri, fundador de una organización antimonopolio. y bufete de abogados de demanda colectiva, y Matthew Butterick, abogado.

Están liderando las demandas contra GitHub y Microsoft, OpenAI, Stability AI y Meta. Saveri y Butterick representan a Silverman, parte de un grupo de autores que afirman que las empresas tecnológicas entrenaron sus modelos de lenguaje en sus libros protegidos por derechos de autor. Los modelos de IA generativa se entrenan utilizando vastos conjuntos de datos de imágenes y texto extraídos de Internet. Esto inevitablemente incluye datos protegidos por derechos de autor. Los autores, artistas y programadores dicen que las empresas de tecnología que han robado su propiedad intelectual sin consentimiento o atribución deberían compensarlos.

“Hay un vacío donde todavía no existe el estado de derecho, y estamos llevando la ley a donde debe ir”, dice Butterick. Si bien las tecnologías de inteligencia artificial en cuestión en las demandas pueden ser nuevas, las cuestiones legales que las rodean no lo son, y el equipo se basa en la ley de derechos de autor "a la antigua", agrega.

Butterick y Saveri señalan a Napster, el sistema de intercambio de música entre pares, como ejemplo. La compañía fue demandada por compañías discográficas por infracción de derechos de autor, lo que condujo a un caso histórico sobre el uso justo de la música.

El acuerdo de Napster allanó el camino para que compañías como Apple, Spotify y otras comenzaran a crear nuevos acuerdos basados en licencias, dice Butterick. La pareja espera que sus demandas también despejen el camino para una solución de licencias en la que los artistas, escritores y otros titulares de derechos de autor también puedan recibir regalías por usar su contenido en un modelo de IA, similar al sistema establecido en la música. industria para samplear canciones. Las empresas también tendrían que pedir permiso explícito para usar contenido protegido por derechos de autor en conjuntos de capacitación.

Las empresas tecnológicas han tratado los datos protegidos por derechos de autor disponibles públicamente en Internet como sujetos de "uso justo" según la ley de derechos de autor de EE. UU., lo que les permitiría usarlos sin pedir permiso primero. Los titulares de los derechos de autor no están de acuerdo. Las demandas colectivas probablemente determinarán quién tiene razón, dice Ghavi.

Este es solo el comienzo de un nuevo período de auge para los abogados de tecnología. Los expertos con los que habló MIT Technology Review coincidieron en que es probable que las empresas de tecnología también enfrenten litigios sobre privacidad y datos biométricos, como imágenes de rostros de personas o clips de ellas hablando. Prisma Labs, la compañía detrás del popular programa de avatar de inteligencia artificial Lensa, ya se enfrenta a una demanda colectiva por la forma en que recopila los datos biométricos de los usuarios.

Ben Winters cree que también veremos más demandas en torno a la responsabilidad del producto y la Sección 230, que determinaría si las empresas de IA son responsables si sus productos fallan y si deberían ser responsables por el contenido que producen sus modelos de IA.

“Los procesos de litigio pueden ser un objeto contundente para el cambio social pero, sin embargo, pueden ser bastante efectivos”, dice Saveri. “Y nadie está presionando a Matthew [Butterick] o a mí”.

Otros

  1. Mark Zuckerberg y el poder de los medios de comunicación

    Es cierto que hay fuerzas poderosas que controlan lo que se puede ver en Facebook e Instagram, pero no son los medios los que toman esas decisiones.

  2. Neuralink ante las promesas de Musk: más voluntarios y algunos avances

    Más voluntarios recibirán el implante cerebral de Elon Musk, pero no se espera su comercialización como producto pronto

  3. Robotaxis

    Las 10 Tecnologías Emergentes 2025: los coches sin conductor solicitados mediante 'apps' se extienden a más ciudades