.

Tecnología y Sociedad

El problema legal de la IA: cómo regular algo que no deja de cambiar

1

La inteligencia artificial cada vez tiene más peso en la vida de la gente, pero sus constantes avances nos impiden comprender su impacto en profundidad. Por eso, un grupo de expertos cree que los gigantes tecnológicos y los científicos responsables deben tener un papel más activo en su regulación 

  • por Bobbie Johnson | traducido por Ana Milutinovic
  • 17 Abril, 2019

Tanto el papel de Facebook en la difusión de noticias falsas como las nuevas normas europeas sobre los derechos de autor tocan uno de los temas más candentes de la tecnología actual: ¿Cómo se deberían regular las empresas tecnológicas? ¿Cómo dicha regulación seguirá el ritmo de las tecnologías emergentes como la inteligencia artificial (IA)? Y, ¿quién se ocupará de que las nuevas leyes no frenen la innovación?

Es cierto que los legisladores suelen tener dificultades para comprender algunos conceptos técnicos básicos, mientras que las empresas avanzan a un ritmo mucho más rápido del que los gobiernos y sus leyes pueden seguir. Para comprender mejor lo que está pasando, en la reciente conferencia EmTech Digital de MIT Technology Review, un grupo de expertos líderes en inteligencia artificial y la normativa concluyó que hacen falta nuevos reglamentos y más cooperación.

Mientras que el director jurídico de Google, Kent Walker, anunció la formación de un nuevo consejo asesor externo para el desarrollo de IA (que finalmente acabaría deshecho a causa de sus polémicos nombramientos y su sospechoso proceso de selección), la directora de investigación de políticas en el Instituto AI Now, Rashida Richardson, opinó que habría que hacer hincapié en los tecnólogos y en las principales compañías para evitar el mal uso de los sistemas que desarrollan. La responsable preguntó: "¿Quién tiene la responsabilidad de garantizar que las tecnologías emergentes no sean discriminatorias?".

En su opinión, las consecuencias no deseadas, como cuando los sistemas de reconocimiento facial emiten falsos positivos, son demasiado peligrosas para muchos grupos de personas, y los sistemas entrenados con datos sesgados no hacen más que reforzar los sesgos que ya existen. Pero prevenir abusos y al tiempo que se fomenta el desarrollo es algo muy complicado para cualquier normativa.

"Las empresas y los individuos responsables de crear tecnologías emergentes tienen una obligación. Deben hacer las gestiones necesarias, analizando profundamente el contexto en el que se creó un conjunto de datos, por ejemplo. En otros casos, hay ocasiones en las que las empresas podrían darse cuenta de que su tecnología no puede supera una prueba de discriminación, ante lo que tendrían que tomar la difícil decisión de no sacar ese producto al mercado", explicó Richardson.

El asesor del Departamento de Defensa de EE. UU., Brendan McCord, sentenció que las compañías más grandes e influyentes deberían usar su "inmenso poder" para desempeñar un papel más activo en la creación de las regulaciones. El experto añadió: "Los grupos de la sociedad civil están haciendo un buen trabajo intentando crear conciencia sobre estos temas. Pero las empresas tienen una enorme capacidad para impulsar esta conversación".

McCord, quien anteriormente trabajó en el polémico Proyecto Maven del Pentágono, sugirió que un consorcio de compañías líderes podría ayudar a establecer normas o incluso trabajar con legisladores para diseñar enfoques orientados al futuro para regular la inteligencia artificial, el aprendizaje automático y otras tecnologías de rápida evolución.

El responsable continuó: "Creo que una buena estrategia sería que las compañías [como Google] se unan con otras compañías y para crear empuje, un impulso para una regulación adecuada, que sería codificada, y así se crearía un ciclo virtuoso en el que otras compañías tendrían que cumplir con esa regulación". No obstante, esto requeriría que las compañías se esfuercen mucho en poner el interés de la sociedad por encima del suyo, agregó.

Walker de Google afirmó que existen muchos ejemplos de compañías que están tomando buenas decisiones, y que la propia Google ya está evaluando qué elementos de las nuevas leyes de propiedad intelectual de Europa podrían importar a EE. UU. Pero hay pruebas que indican que los métodos actuales de autorregulación son muy débiles y, a menudo, solo se manifiestan ante las amenazas de los gobiernos o los tribunales. Facebook anunció hace poco que no permitiría que los anunciantes se centraran en la raza, género y edad, por ejemplo. Sin embargo, la decisión se produjo después de una serie de demandas judiciales que acusaban a la empresa de violar las leyes de derechos civiles establecidas en la década de 1960.

Richardson, de AI Now, cree que es difícil regular las tecnologías emergentes porque se mueven muy rápido y, a menudo, dejan de lado a importantes partes interesadas. La experta detalló: "Existe una retórica muy ambigua sobre la igualdad. Es muy difícil decir: 'No haremos daño a las personas con esta tecnología'. ¿Quién toma esa decisión?

La responsable concluyó: "Es más difícil de regular, porque o se hace una moratoria completa hasta que se entienda, o seguimos viviendo en el mundo en el que estamos ahora mismo, en el que intentamos ponernos al día constantemente".

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  2. La herramienta de Google DeepMind para "leer la mente" de la inteligencia artificial

    Un equipo de Google DeepMind ha creado Gemma Scope, una herramienta diseñada para desentrañar los procesos internos de una IA y comprender cómo llega a sus conclusiones. Este avance abre la puerta a algoritmos más transparentes y alineados con las expectativas humanas

    Google DeepMind tiene una nueva herramienta para explorar la IA
  3. El fundador de Oculus habla sobre la apuesta de EE UU por la realidad mixta en el campo de batalla

    El proyecto norteamericano de gafas militares está cuestionado, pero Palmer Luckey cree que los cascos dotados con IA y realidad aumentada serán clave en los ejércitos del futuro