El último Foro Económico Mundial se está centrando en crear un Consejo de Inteligencia Artificial capaz de desarrollar un terreno legal común para todos los países. ¿Serán capaces de hacerlo teniendo en cuenta el potencial geopolítico de la tecnología y la diversidad de culturas?
Esta semana, expertos en inteligencia artificial (IA), políticos y CEO se han reunido para intentar resolver una importante cuestión: ¿será capaz el mundo de ponerse de acuerdo sobre cómo se debería usar y controlar la inteligencia artificial? El Foro Económico Mundial (WEF, por sus siglas en inglés) es una organización internacional que cada año reúne en Davos (Suiza) a algunas de las personas más ricas y poderosas del mundo para tratar temas globales.
Uno de los objetivos del WEF de esta semana ha sido la creación de un "Consejo de IA". Su cometido será encontrar un terreno legal común para todos los países, algunos de los cuales parecen estar más en conflicto sobre el poder y el potencial de la IA y de otras tecnologías emergentes (ver Consecuencias económicas, tecnológicas y políticas del veto a Huawei).
Este asunto es de suma importancia dados los actuales vientos geopolíticos. La IA ya se considera una tecnología crucial para la competitividad de los países y sus ventajas geopolíticas. El esfuerzo por encontrar un escenario común también es importante, dado que la tecnología está sembrando la discordia entre los países, especialmente entre Estados Unidos y su gran rival económico, China.
"Muchos ven la IA a través de la lente de la competencia económica y geopolítica", afirma el subdirector del Instituto Stanford para la IA centrada en el ser humano (EE. UU.), Michael Sellitto, y añade: "[Ellos] tienden a crear barreras para acceder a datos e investigaciones, por ejemplo, para mantener sus aparentes ventajas estratégicas".
Varios países han anunciado planes de inteligencia artificial que prometen priorizar su financiación, desarrollo y aplicaciones. Pero los esfuerzos para crear un consenso sobre cómo se debe gestionar han sido limitados. Este abril, la UE publicó sus directrices para el uso ético de la IA. La Organización para la Cooperación y el Desarrollo Económicos (OCDE), una coalición de países dedicados a promover la democracia y el desarrollo económico, también anunció este mes un conjunto de principios de inteligencia artificial basados en sus propios objetivos.
Sería mucho más importante (y sorprendente) encontrar una zona de encuentro entre Estados Unidos, China y el resto del mundo en el ámbito de la IA. Y el esfuerzo del WEF está claramente diseñado para eso.
El evento de esta semana ha acogido a docenas de expertos, ejecutivos y responsables políticos. Han asistido representantes de Naciones Unidas y Unicef, junto a compañías como Microsoft, IBM, el gigante chino de seguros y tecnología Ping An y la consultora canadiense Element AI. La reunión también ha contado con destacados profesores y políticos de varios países más pequeños. Los dos presidentes del consejo de IA del WEF han sido el presidente de Microsoft y director del departamento de Asuntos Legales y Corporativos de la compañía, Brad Smith, y el destacado experto en IA e inversor chino Kai-Fu Lee, quien ha escrito un libro titulado AI Superpowers, en el que destaca la creciente destreza tecnológica de China .
"El foro desempeña el papel de organización internacional imparcial", sostiene la directora de IA y Aprendizaje Automático del WEF, Kay Firth-Butterfield. Asegura que el nuevo consejo determinará los tres temas más importantes en IA. En su opinión, estos temas serán: cómo la tecnología puede afectar el futuro del trabajo; cómo la investigación en IA podría beneficiar a los países emergentes; y qué casos específicos de uso pueden surgir. Y añade: "Estamos buscando las áreas en las que deberíamos cerrar las llamadas 'brechas en la gobernanza'".
Un uso específico de la IA que parece estar destinado a causar polémica es la vigilancia. Varios grupos de derechos civiles en Estados Unidos han presionado para lograr una mayor regulación del reconocimiento facial en particular, y algunas ciudades se han comprometido a cumplirla, pero en China existe poca resistencia a esta aplicación.
"Las distintas culturas tienen valores diferentes, y la inteligencia artificial es una tecnología que puede codificar valores", destaca el representante de OpenAI Jack Clark, quien ha asistido al evento en nombre de esta compañía de inteligencia artificial respaldada por los grandes inversores de Silicon Valley (EE. UU.). El responsable añade: "Creo que al principio será difícil acordar algo como '¿Qué valores debemos codificar dentro de un sistema?' desde una perspectiva global".
Aun así, muchos verán que este nuevo consejo de IA supone un paso valioso y necesario en este momento, en el que casi parece que el mundo está envuelto en una guerra fría tecnológica. "Es totalmente positivo que un grupo de personas de diferentes culturas y contextos se reúnan y conversen", concluye Clark.