Obama intenta no quedarse atrás en el impulso de la inteligencia artificial, por ello estña analizando cómo regularla y cómo informar al público sobre un debate con demasiados frentes abiertos
¿Debe el Gobierno de Estados Unidos regular la inteligencia artificial (IA)? Ese fue el tema principal del primer taller de la Casa Blanca sobre las implicaciones legales y de gobernanza de la IA, celebrado en Seattle (EEUU) el pasado martes. Allí, el director adjunto de Tecnología de la Casa Blanca, Ed Felten, afirmó: "Estamos observando cada vez más problemas asociados a la IA y aprendizaje de máquinas por todo el Gobierno. No nos encontramos ni remotamente cerca de regular ampliamente la IA. Pero el reto ahora consiste en cómo asegurar que la IA siga siendo segura, controlable y predecible mientras se vaya haciendo más inteligente".
Una de los objetivos clave del taller, según el profesor de derecho de la Universidad de Washington (EEUU) Ryan Calo, que fue uno de los organizadores, es ayudar al público a entender en qué punto está la tecnología ahora y hacia dónde se dirige. "La idea no es que el Gobierno se entrometa y regule la IA sino que emplee sus otras muchas armas, como la coordinación entre agencias y las competencias de adquisición", dijo. Los asistentes incluyeron emprendedores tecnológicos, académicos y miembros del público.
En su ponencia, el CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni, señaló que aún nos encontramos en la Edad Media del aprendizaje de máquinas. La inteligencia artificial atual de momento solo sirve para problemas bien estructurados como los juegos de mesa y la conducción en autopista. Fue uno de los primeros defensores de que un enfoque colaborativo en IA puede ayudar a que la vida humana sea más segura y eficiente. "Los errores de hospital representan la tercera causa de muerte en Estados Unidos. La IA puede ayudarnos allí. Cada año, muere gente porque no la IA no se emplea correctamente en los hospitales", critió Etzioni.
Foto: El CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni (izquierda) habla con asistentes del taller de la Casa Blanca sobre la intelligencia artificial. Crédito: Team Photogenic.
No obstante, el experto considera que aún es demasiado pronto para hablar de regular la IA. Según sus palabras: "El aprendizaje profundo aún es un 99% trabajo e ingenio humano. 'Lo hizo mi robot', no es una excusa. Hemos de asumir la responsabilidad de lo que hagan nuestros robots, IA y algoritmos".
Un panel sobre "sabiduría artificial" se centró en las situaciones en las que las interacciones entre humanos y la IA se tuercen, como el caso de un algoritmo diseñado para predecir los futuros criminales que parece incluir un sesgo racial. "El problema no reside en los propios agentes de IA; se trata de humanos que emplean herramientas tecnológicas para oprimir a otros humanos en las finanzas, el sistema judicial y la educación", dijo Jack Balkin de la Facultad de Derecho de la Universidad de Yale (EEUU).
Varios académicos apoyaron la idea de crear una "garantía de la información". La medida obligaría legalmente a que los expertos en big data que recopilan la información empleada por la IA muestren buena fe y actúen de maneras que inspiren confianza. Por ejemplo, los tecnólogos podrían considerarse legalmente responsables si emplean datos de mala calidad para entrenar sistemas de IA, o instauren prejuicios raciales o basados en la edad o el género en los algoritmos que diseñan.
A medida que la dependencia de las instituciones gubernamentales sobre los sistemas de IA para la toma de decisiones crezca, deberán disponer de una plantilla que entienda las limitaciones y los sesgos inherentes de los datos y las tecnologías de IA, tal y como señaló la científica social de Microsoft Research, Kate Crawford. La experta sugiere que los alumnos estudien ética junto a las técnicas de programación.
El investigador de la Universidad de Carolina del Sur (EEUU) Bryant Walker Smith propuso flexibilidad regulatoria para las tecnologías de evolución rápida, como los coches autónomos. El experto defiende: "Las empresas deberían promover el caso público de la seguridad de sus vehículos autónomos. Deberían establecer medidas y después monitorizarlas durante todo el ciclo de vida de sus sistemas. Necesitamos de diversos enfoques para informar el debate público".
Este ha sido el primero de cuatro talleres programados para celebrarse durante los próximos meses. Dos se centrarán en la IA para el bien social y las inquietudes de seguridad y control, mientras el último profundizará en las implicaciones sociales y económicas de la tecnología. Felten también anunció que la Casa Blanca pronto emitirá una solicitud de información para dar al público la oportunidad de expresar sus opiniones sobre el futuro de la IA.
Eso sí, hubo un tema presente en la mente de todos del que no se habló. Este tema fue, por supuesto, la futura elección presidencial del país que tendrá lugar en noviembre. En una actualización de blog publicada este mes, Felten desveló la formación de un nuevo Subcomité Nacional de Ciencias y Tecnología sobre Aprendizaje de Máquinas e Inteligencia Artificial, centrado en emplear la IA para mejorar los servicios gubernamentales "entre hoy y el final de esta administración".