Se ha demostrado en repetidas ocasiones que los sistemas de inteligencia artificial causan problemas que afectan de manera desproporcionada a los grupos marginales mientras benefician a un puñado de privilegiados. Los esfuerzos de crear la ética de la IA a nivel mundial, que se están llevando a cabo actualmente y de los cuales ya hay docenas, tienen como objetivo que todo el mundo se beneficie de esta tecnología y evitar que cause daños. En términos generales, los expertos están creando pautas y principios que los desarrolladores, financiadores y reguladores deben seguir. Estas pautas podrían incluir, por ejemplo, recomendar auditorías inte as rutinarias o requerir protección para los datos personales de los usuarios.
nCreemos que las intenciones de estos grupos son buenas intenciones y confiamos en el valor de su trabajo. No cabe duda de que la comunidad de la IA debería acordar un conjunto de definiciones y conceptos inte acionales para que la IA sea ética. Pero si dicha comunidad no cuenta con más representación geográfica, generará una visión global de la ética de la IA que se limitará a reflejar las perspectivas de las personas de unas pocas regiones del mundo, concretamente América del Norte y el noroeste de Europa.
nEste trabajo no es fácil ni sencillo. "Equidad", "privacidad" y "sesgo" significan cosas diferentes (pdf) en distintos lugares. La gente también tiene expectativas dispares sobre estos conceptos en función de sus propias realidades políticas, sociales y económicas. Los desafíos y riesgos que plantea la IA también difieren según la ubicación de cada uno.
nEn el mejor de los casos, si las organizaciones que trabajan en la ética global de la IA no son conscientes de esto, corren el riesgo de desarrollar estándares ineficaces y carentes de sentido en muchas regiones del mundo. En el peor de los casos, estos estándares defectuosos conducirán a sistemas y herramientas de inteligencia artificial que perpetúen los sesgos existentes e insensibles para con las culturas locales.
nEn 2018, por ejemplo, Facebook tardó en actuar en contra las noticias falsas que se difundían en Birmania y que condujeron a varias violaciones de los derechos humanos. Una evaluación (pdf) financiada por la empresa descubrió el descuido de la red social afirma que este se debió, en parte, a que las normas de la comunidad de Facebook y a las políticas de moderación de contenido no abordaban las realidades políticas y sociales del país.
nnExiste una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA.
n
Para prevenir tales abusos, las empresas que trabajan en la creación de las reglas éticas para los sistemas y herramientas de inteligencia artificial deben involucrar a usuarios de todo el mundo para crear estándares apropiados para la gestión de estos sistemas. También deben ser conscientes de cómo se aplican sus políticas en diferentes contextos.
nA pesar de los riesgos, existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA designados por las principales organizaciones inte acionales. El grupo asesor de expertos del proyecto AI for Children de Unicef, por ejemplo, no tiene representantes de Oriente Medio, África y Asia, que son las regiones con mayor concentración de niños y adultos jóvenes, como son.
nLamentablemente, todo el campo de la ética de la IA, tal y como es actualmente, corre el grave riesgo de limitarse a los idiomas, ideas, teorías y problemas de un puñado de regiones, principalmente América del Norte, Europa Occidental y Asia Oriental.
nEsta falta de diversidad regional refleja la actual concentración de la investigación de IA (pdf): el 86 % de los artículos publicados en conferencias de IA en 2018 se atribuyeron a autores de Asia Oriental, América del Norte y Europa. Menos del 10 % de las referencias citadas en los artículos de IA publicados en estas regiones proceden de otra región. Las patentes también están muy concentradas: el 51 % de las patentes de IA publicadas en 2018 se atribuyeron a América del Norte.
nLos que trabajamos en la ética de la IA haremos más daño que bien si permitimos que la falta de diversidad geográfica del campo defina nuestros propios esfuerzos. Si no tenemos cuidado, podríamos terminar codificando los sesgos históricos de la IA en las pautas que deformarán la tecnología para las generaciones venideras. Debemos comenzar a priorizar las voces de los países de ingresos bajos y medianos (especialmente las del "Sur Global") y las de las comunidades marginadas históricamente.
nLos avances tecnológicos a menudo han beneficiado a Occidente mientras que en otros lugares intensificaban la desigualdad económica, la opresión política y la destrucción del medio ambiente. Incluir países no occidentales en la ética de la IA es la mejor manera de evitar que se repita este patrón.
nLa buena noticia es que hay muchos expertos y líderes de las regiones menos representadas que podrían ser incluidos en dichos grupos asesores. No obstante, muchas organizaciones inte acionales parecen no esforzarse mucho para solicitar la participación de estas personas. El recientemente formado Consorcio de Ética Global de IA, por ejemplo, no tiene miembros fundadores que representen instituciones académicas o centros de investigación de Oriente Medio, África y América Latina. Esta omisión es un claro ejemplo de que los patrones coloniales (pdf) se repiten.
nSi queremos construir sistemas de IA éticos, seguros e inclusivos en lugar de limita os a hacer un "lavado de cara ético", primero debemos generar confianza con aquellos que históricamente han sido perjudicados por estos mismos sistemas. Eso comienza con un gran compromiso.
nEn el Instituto de Ética de la IA de Montreal (Canadá), donde ambos trabajamos, intentamos adoptar un enfoque diferente. Organizamos reuniones virtuales de ética de la IA, debates abiertos a los que puede unirse cualquier persona con conexión a inte et o teléfono. Durante estos eventos, nos hemos conectado con un grupo diverso de personas, desde un profesor que vive en Macao (China) hasta un estudiante universitario que estudia en Bombay (India).
nPor otro lado, grupos como Partnership on AI, reconociendo la falta de diversidad geográfica en IA de manera más amplia, han recomendado cambios en las leyes de expedición de visados y han propuesto políticas que facilitan a los investigadores viajar y compartir su trabajo. La organización de base comunitaria Maskhane reúne a investigadores africanos de procesamiento del lenguaje natural para reforzar el trabajo de traducción automática que ha desatendido los idiomas no dominantes.
nResulta alentador ver que las organizaciones inte acionales intentan incluir puntos de vista más diversos en sus debates sobre la IA. Es importante que todos recordemos que la diversidad regional y cultural es clave para cualquier conversación sobre la ética de la IA. Lograr que la IA responsable sea la norma, y no la excepción, resulta imposible sin las voces de las personas que aún no tienen poder e influencia.
n