La inteligencia artificial cada vez tiene más peso en la vida de la gente, pero sus constantes avances nos impiden comprender su impacto en profundidad. Por eso, un grupo de expertos cree que los gigantes tecnológicos y los científicos responsables deben tener un papel más activo en su regulación
Tanto el papel de Facebook en la difusión de noticias falsas como las nuevas normas europeas sobre los derechos de autor tocan uno de los temas más candentes de la tecnología actual: ¿Cómo se deberían regular las empresas tecnológicas? ¿Cómo dicha regulación seguirá el ritmo de las tecnologías emergentes como la inteligencia artificial (IA)? Y, ¿quién se ocupará de que las nuevas leyes no frenen la innovación?
Es cierto que los legisladores suelen tener dificultades para comprender algunos conceptos técnicos básicos, mientras que las empresas avanzan a un ritmo mucho más rápido del que los gobiernos y sus leyes pueden seguir. Para comprender mejor lo que está pasando, en la reciente conferencia EmTech Digital de MIT Technology Review, un grupo de expertos líderes en inteligencia artificial y la normativa concluyó que hacen falta nuevos reglamentos y más cooperación.
Mientras que el director jurídico de Google, Kent Walker, anunció la formación de un nuevo consejo asesor externo para el desarrollo de IA (que finalmente acabaría deshecho a causa de sus polémicos nombramientos y su sospechoso proceso de selección), la directora de investigación de políticas en el Instituto AI Now, Rashida Richardson, opinó que habría que hacer hincapié en los tecnólogos y en las principales compañías para evitar el mal uso de los sistemas que desarrollan. La responsable preguntó: "¿Quién tiene la responsabilidad de garantizar que las tecnologías emergentes no sean discriminatorias?".
En su opinión, las consecuencias no deseadas, como cuando los sistemas de reconocimiento facial emiten falsos positivos, son demasiado peligrosas para muchos grupos de personas, y los sistemas entrenados con datos sesgados no hacen más que reforzar los sesgos que ya existen. Pero prevenir abusos y al tiempo que se fomenta el desarrollo es algo muy complicado para cualquier normativa.
"Las empresas y los individuos responsables de crear tecnologías emergentes tienen una obligación. Deben hacer las gestiones necesarias, analizando profundamente el contexto en el que se creó un conjunto de datos, por ejemplo. En otros casos, hay ocasiones en las que las empresas podrían darse cuenta de que su tecnología no puede supera una prueba de discriminación, ante lo que tendrían que tomar la difícil decisión de no sacar ese producto al mercado", explicó Richardson.
El asesor del Departamento de Defensa de EE. UU., Brendan McCord, sentenció que las compañías más grandes e influyentes deberían usar su "inmenso poder" para desempeñar un papel más activo en la creación de las regulaciones. El experto añadió: "Los grupos de la sociedad civil están haciendo un buen trabajo intentando crear conciencia sobre estos temas. Pero las empresas tienen una enorme capacidad para impulsar esta conversación".
McCord, quien anteriormente trabajó en el polémico Proyecto Maven del Pentágono, sugirió que un consorcio de compañías líderes podría ayudar a establecer normas o incluso trabajar con legisladores para diseñar enfoques orientados al futuro para regular la inteligencia artificial, el aprendizaje automático y otras tecnologías de rápida evolución.
El responsable continuó: "Creo que una buena estrategia sería que las compañías [como Google] se unan con otras compañías y para crear empuje, un impulso para una regulación adecuada, que sería codificada, y así se crearía un ciclo virtuoso en el que otras compañías tendrían que cumplir con esa regulación". No obstante, esto requeriría que las compañías se esfuercen mucho en poner el interés de la sociedad por encima del suyo, agregó.
Walker de Google afirmó que existen muchos ejemplos de compañías que están tomando buenas decisiones, y que la propia Google ya está evaluando qué elementos de las nuevas leyes de propiedad intelectual de Europa podrían importar a EE. UU. Pero hay pruebas que indican que los métodos actuales de autorregulación son muy débiles y, a menudo, solo se manifiestan ante las amenazas de los gobiernos o los tribunales. Facebook anunció hace poco que no permitiría que los anunciantes se centraran en la raza, género y edad, por ejemplo. Sin embargo, la decisión se produjo después de una serie de demandas judiciales que acusaban a la empresa de violar las leyes de derechos civiles establecidas en la década de 1960.
Richardson, de AI Now, cree que es difícil regular las tecnologías emergentes porque se mueven muy rápido y, a menudo, dejan de lado a importantes partes interesadas. La experta detalló: "Existe una retórica muy ambigua sobre la igualdad. Es muy difícil decir: 'No haremos daño a las personas con esta tecnología'. ¿Quién toma esa decisión?
La responsable concluyó: "Es más difícil de regular, porque o se hace una moratoria completa hasta que se entienda, o seguimos viviendo en el mundo en el que estamos ahora mismo, en el que intentamos ponernos al día constantemente".