La urgencia de que la inteligencia artificial se diseñe de acuerdo a unos principios éticos es cada vez mayor. El problema es que cada persona y cultura tiene una moralidad distinta y subjetiva, así que algunos expertos proponen que los derechos humanos sirvan de base para lograrlo
Durante los últimos seis años, el departamento de Policía de la ciudad de Nueva York (EE.UU.) ha recopilado una base de datos masiva que contiene los nombres y datos personales de al menos 17.500 personas sospechosas de pertenecer a grupos criminales. La iniciativa no tardó en recibir críticas de activistas de los derechos civiles, quienes la consideran incorrecta y racialmente discriminatoria.
"Ahora imagine que la tecnología de reconocimiento facial se combina con el desarrollo de una base de datos que, en teoría, asume que pertenecemos a grupo criminal", dijo la presidenta y asesora del Fondo de Defensa Legal de la Asociación Nacional Estadounidense para el Progreso de las Personas de Color (NAACP, por sus siglas en inglés), Sherrilyn Ifill, en el Simposium AI Now celebrado en la misma ciudad.
Abogados, activistas e investigadores están haciendo mucho hincapié en la urgencia de que los sistemas de inteligencia artificial se diseñen e implementen con criterios éticos y de responsabilidad. Pero a menudo, estas peticiones pasan por alto un par de cuestiones difíciles: ¿quién debe ser el encargado de definir esas normas éticas y quién hará que se cumplan?
Foto: Sherrilyn Ifill (Fondo de Defensa Legal de la NAACP), Timnit Gebru (Google) y Nicole Ozer (ACLU) en una charla en el Simposium AI Now 2018. Créditos: Andrew Federman para el Instituto AI Now
El reconocimiento facial no solo es imperfecto, sino que algunos estudios han demostrado que el software más usado es mucho menos preciso a la hora de reconocer personas de piel oscura y mujeres. Según la estimación de Ifill, entre el 95 % y el 99 % de las personas incluidas en la base de datos de la Policía son afroamericanos, latinos y asiáticos (ver La precisión de los sistemas de reconocimiento facial de la policía depende de la raza). La responsable afirmó: "Estamos hablando crear una clase de [...] personas marcadas con una especie de etiqueta criminal" (ver El reconocimiento facial del FBI es intrusivo, injusto y poco preciso).
Mientras tanto, los departamentos de Policía de EE. UU., Reino Unido y China ya están adoptando el reconocimiento facial para encontrar a delincuentes conocidos. En junio, la Policía de Gales del Sur (Reino Unido) publicó un informe en el que justificaba su uso de la tecnología por el "beneficio público" que proporcionaba.
De hecho, la tecnología a menudo resalta los diferentes estándares éticos de las personas, ya sea a la hora de censurar el discurso de odio o a la de usar herramientas de evaluación de riesgos para mejorar la seguridad pública.
Foto: Sherrilyn Ifill (Fondo de Defensa Legal de NAACP), Timnit Gebru (Google) y Nicole Ozer (ACLU) en una conversación en el Simposio AI Now 2018.
En un intento por demostrar lo distintos que pueden ser los principios de cada persona, un equipo del MIT (EE.UU.) ha creado una plataforma llamada Moral Machine para recoger la opinión de la gente sobre las decisiones morales que deberían tomar los coches autónomos. El equipo pidió a millones de personas de todo el mundo que analizaran las variaciones del clásico "dilema del tranvía" en el que debían elegir a quién debería tratar de priorizar un coche en un accidente. Los resultados muestran una gran variación en diferentes culturas (ver ¿Matar a un anciano o a un bebé? La ética del coche autónomo depende del país).
Pero establecer unos estándares éticos tampoco cambia necesariamente el comportamiento. En junio, por ejemplo, después de que Google aceptara suspender su trabajo en el Proyecto Maven con el Pentágono, estableció un nuevo conjunto de principios éticos para sus futuros proyectos de inteligencia artificial (ver Los siete principios de Google para evitar críticas a sus proyectos militares). Solo unos meses después, muchos empleados de Google sienten que la compañía ha ignorado esos principios con una oferta de contrato con el Departamento de Defensa por 8.700 millones de euros. Un estudio reciente realizado en la Universidad Estatal de Carolina del Norte (EE. UU.) también descubrió que pedir a los ingenieros de software que lean un código ético no tiene ningún impacto sobre su comportamiento.
El profesor de Derecho Internacional de la Facultad de Derecho en la Universidad de Nueva York (EE. UU.) Philip Alston propone una solución para la naturaleza ambigua e incomprensible de la ética: replantear las consecuencias impulsadas por la inteligencia artificial en términos de derechos humanos. "Los derechos humanos están en la Constitución. Están en la declaración de los derechos; han sido interpretados por los tribunales", dijo Alston en la misma conferencia. Y afirmó que si un sistema de inteligencia artificial elimina los derechos básicos de las personas, entonces no debería ser aceptable.
Alston no es el único que ha llegado a esa conclusión. Menos de una semana antes del simposio, el Instituto de Investigación de Datos y Sociedad publicó una propuesta para usar los derechos humanos internacionales para manejar la IA. El informe recomienda que las empresas tecnológicas colaboren con grupos de derechos civiles e investigadores, y realicen evaluaciones de impacto en los derechos humanos durante los ciclos de vida de sus sistemas de inteligencia artificial. "Hasta que no empecemos a incluir los derechos humanos en la discusión sobre la IA, no habrá un pilar fuerte", concluyó Alston.