Si queremos limitar los peligros de la inteligencia artificial y fomentar sus beneficios, es imprescindible que los reguladores comprendan la tecnología en profundidad. Para lograrlo, la Universidad de Harvard ya está organizando eventos formativos y reuniendo opiniones de expertos
Cuando el CEO de Facebook, Mark Zuckerberg, testificó ante el Congreso de Estados Unidos, los expertos en tecnología no tardaron en darse cuenta de lo poco que los políticos sabían sobre el tema. Por mucho que quisieran regular al gigante tecnológico, estaba claro que no tenían ni idea de cómo hacerlo. Así que Zuckerberg acabó saliéndose con la suya gracias a sus grandilocuentes afirmaciones sobre cómo la inteligencia artificial (IA) iba a resolver todos los problemas de la compañía.
Para el investigador de la Escuela Kennedy de la Universidad de Harvard (HKS, en EE.UU.) Dipayan Ghosh, la jornada sirvió para hacer hincapié en la urgencia de que los políticos entiendan los principales problemas tecnológicos en general y la inteligencia artificial en particular.
"La inteligencia artificial es una tecnología increíble, pero plantea problemas realmente importantes que están cobrando vida en la sociedad", explica Ghosh, quien fue asesor de la política tecnológica en la administración de Obama. El experto añade: "Necesitamos informar a las personas con poder sobre cómo funcionan estos sistemas, para que la próxima vez que inicien un esfuerzo regulatorio, estén bien informadas".
Con este objetivo en mente, Ghosh está codirigiendo una nueva iniciativa de política de IA, lanzada recientemente, con el investigador principal de la HKS y presidente de la Comisión Federal de Comunicaciones de Estados Unidos bajo Obama, Tom Wheeler.
Financiada por el Centro Shorenstein de Medios y Política Pública de la HKS, la iniciativa se centra en ampliar la formación académica y jurídica en torno a la ética y la regulación de la IA. También organizará seminarios para los miembros del Congreso de EE. UU. para que adquieran más conocimientos sobre la tecnología. Se espera que con estos esfuerzos, el Congreso y otros legisladores más preparados para regular y guiar eficazmente el creciente impacto de la IA en la sociedad.
El año pasado, una serie de escándalos tecnológicos graves pusieron de manifiesto los riesgos de hacer una mala implementación de la inteligencia artificial. Por ejemplo, el aprendizaje automático puede usarse para expandir las noticias falsas a través de las redes sociales, y la automatización de tecnologías como el reconocimiento facial pueden fomentar los sesgos y la discriminación.
En octubre, en el Simposio anual de AI Now, muchos tecnólogos, activistas de derechos humanos y expertos legales insistieron en la necesidad desarrollar sistemas para que la inteligencia artificial pueda dar cuenta de sus actos. "El Gobierno tiene una visión general", dijo la presidenta y consejera asesora del Fondo de Defensa Legal de la Asociación nacional para el fomento de personas de color (NAACP), Sherrilyn Ifill. "Ellos tienen la responsabilidad de comunicar la historia a las corporaciones y a otras compañías que están desarrollando estas tecnologías".
Pero el Gobierno carece de los conocimientos necesarios para asumir esta responsabilidad, explica Ghosh. "Si preguntan a un miembro del Congreso si la IA es parte del problema de la desinformación, responderá :'no lo creo' o 'no lo sé'", detalla el experto.
Como parte de la iniciativa, Ghosh y Wheeler han pedido a unos 30 expertos líderes en ciencias de la computación, filosofía, economía y otros campos que analicen cuestiones como la discriminación, la imparcialidad, la transparencia y la responsabilidad. Sus opiniones se publicarán en los próximos meses. Las tres primeras serán las de la profesora de la Escuela de Negocios Sloan del Instituto Tecnológico de Massachusetts (MIT, EE.UU.), Catherine Tucker, sobre el contexto económico del sesgo algorítmico; las del director de investigación y la fundadora del Instituto de Investigación de Datos y de la Sociedad, M.C. Elish y Danah Boyd, respectivamente, sobre la ética de cuándo y cómo usar los sistemas de inteligencia artificial sin empeorar la injusticia existente; y la del profesor de la Escuela de Comunicación Annenberg Joseph Turow sobre las consecuencias discriminatorias del marketing hiperpersonalizado.
El próximo febrero, la iniciativa organizará unas jornadas formativas para los miembros del Congreso y su personal de políticas tecnológicas para ayudarles a traducir los artículos en debates productivos para las políticas. La cita explorará qué significa diseñar inteligencia artificial desde una perspectiva ética y qué políticas deberían crearse para mitigar sus perjuicios y fomentar sus beneficios. Ghosh reconoce que el clima político actual hace que sea difícil alinear a ambas partes hacia cualquier objetivo, pero tiene la esperanza de encontrar un terreno común sobre la urgencia de esta cuestión.