Tecnología y Sociedad
Arati Prabhakar, directora saliente de Ciencia y Tecnología de EE UU: "Queremos entender si la IA es segura, pero aún no sabemos cómo"
La directora de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca, que probablemente dejará su cargo al finalizar la administración Biden, reflexiona sobre aspectos como los riesgos de la IA, las políticas migratorias y la Ley de Chips
La administración del presidente Joe Biden llegará a su fin en dos meses y, con ello, es muy probable que también se despida Arati Prabhakar. La directora de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca desde 2022 fue quien introdujo ChatGPT al presidente en el Despacho Oval. Durante su gestión, tuvo un rol clave en la aprobación de la orden ejecutiva sobre inteligencia artificial en 2023. Aunque su cumplimiento depende de la colaboración voluntaria de las empresas tecnológicas, estableció directrices para promover una IA más segura y transparente.
El Gobierno de Trump aún no ha definido su postura sobre cómo abordará la inteligencia artificial, pero es probable que muchos de sus miembros busquen revocar la orden ejecutiva existente. En julio, Trump expresó su apoyo a la plataforma del Partido Republicano para 2024, que critica dicha orden al considerarla un freno para la innovación en IA y una imposición de “ideas radicales de izquierdas” en el desarrollo de esta tecnología. El inversor de capital de riesgo, Marc Andreessen, también ha respaldado esta posición.
No obstante, Elon Musk podría complicar esta idea. Sobre todo, teniendo en cuenta que durante años ha compartido su temor ante escenarios catastrofistas de la IA y ha apoyado algunas normativas destinadas a promover su seguridad.
Ahora que llega el final de la administración Biden, tuve la oportunidad de hablar con Arati Prabhakar sobre los avances en inteligencia artificial logrados durante su mandato. Además, comentamos cómo podrían cambiar cuestiones clave, como los riesgos de la IA, las políticas migratorias o la Ley de Chips, bajo el Gobierno de Trump.
Esta conversación ha sido editada para mejorar su lectura.
Cada vez que aparece un nuevo modelo de IA, surgen dudas sobre los riesgos de un mal uso. Si piensa en las preocupaciones de seguridad de hace dos años, ¿cuáles se han hecho realidad?
Hemos identificado varios riesgos desde que los grandes modelos lingüísticos comenzaron a ganar terreno. Uno de los más preocupantes que ya se ha manifestado de forma alarmante son los deepfakes y el abuso sexual basado en imágenes. Por ello, hemos trabajado junto al Consejo de Políticas de Género para instar a la industria a tomar medidas urgentes, y algunas empresas ya han empezado a actuar. Hay muchas acciones posibles: por ejemplo, las plataformas de pagos podrían reforzar el cumplimiento de sus términos de uso. No quieren ser cómplices de este tipo de abusos y pueden implementar controles más estrictos para evitarlo. Aunque hay propuestas legislativas en marcha, su aplicación llevará tiempo.
¿Ha habido riesgos que, al final, no resultaron ser tan graves como se esperaba?
Al principio, los desarrolladores de IA mostraron gran preocupación por el posible uso de estas tecnologías en la creación de armas biológicas. Sin embargo, al realizar un análisis comparativo, se concluyó que el riesgo, aunque era ligeramente mayor que el de realizar búsquedas en Google, seguía siendo muy limitado. Si no has considerado cómo otros actores también pueden hacer el mal, entonces los chatbots pueden parecer muy peligrosos. No obstante, es importante preguntarse: ¿peligrosos en comparación con qué?
Muchas personas tienen dudas sobre cómo el Departamento de Defensa o la Policía van a incorporar la IA. ¿Qué pasos deberían dar estos organismos para generar confianza?
Si las personas no confían en que las herramientas de inteligencia artificial respetan su privacidad, evitan prejuicios y discriminación, y no presentan riesgos de seguridad, no se podrán aprovechar todas las posibilidades que ofrecen. No hay lugar donde esto sea más importante que en áreas como la seguridad nacional y la aplicación de la ley.
Le daré un claro ejemplo. La tecnología de reconocimiento facial ha sido mal utilizada en situaciones horribles e inapropiadas, como cuando se utiliza un video de baja calidad para identificar a un hombre afroamericano que ni siquiera ha estado en ese lugar y que, más tarde, es arrestado por un delito que no ha cometido (nota del editor: Prabhakar se refiere a esta historia). Las detenciones erróneas provocadas por un uso inadecuado de esta tecnología deben terminar.
En contraste con esto, también hay buenos ejemplos, como el proceso en los controles de seguridad de los aeropuertos. Al pasar por el control, te toman una foto y la comparan con tu documento de identidad para verificar que eres quien dices ser. Es una aplicación muy específica y concreta, que compara la imagen con la del documento de identidad. Además, aparece un cartel donde se informa —y sé por el Departamento de Seguridad Nacional de los Estados Unidos que esto es cierto— que la imagen será borrada. Este es un uso eficiente y responsable de la tecnología automatizada: apropiado, respetuoso y responsable. Así es como debemos avanzar.
¿Le sorprendió el veto de California a la ley sobre seguridad de la IA?
No. Seguí el debate y estaba claro que había posturas muy firmes en ambos lados. Los opositores al proyecto de ley, y creo que, con razón, señalaron que no era una medida práctica. Era más bien una declaración de intenciones sobre cómo evaluar la seguridad, pero en realidad no tenemos la certeza de cómo hacerlo. Nadie lo sabe, es un misterio.
Esto me hace recordar que, aunque lo que realmente queremos es entender hasta qué punto un modelo es seguro, eficaz y fiable, en realidad tenemos una capacidad bastante limitada para responder a esas preguntas. Son cuestiones que requieren una investigación profunda, y son un claro ejemplo del tipo de I+D pública que debe impulsarse.
Hablemos de talento. Gran parte del reciente Memorándum de Seguridad Nacional sobre Inteligencia Artificial se centraba en cómo atraer a los profesionales en IA más cualificados del extranjero para trabajar en Estados Unidos. ¿Cree que se están tomando las decisiones adecuadas?
Es un tema de gran relevancia. Esta es la esencia de la historia estadounidense: a lo largo de los siglos, las personas han llegado a este país para contribuir a su construcción. Eso también sucede ahora, en los campos de la ciencia y la tecnología, a pesar de que en la actualidad vivimos en un mundo muy diferente. Yo mismo llegué aquí siendo una niña, cuando mis padres emigraron desde la India a principios de los años 60. En aquella época, las oportunidades para irse a otras partes del mundo eran bastante limitadas.
Una buena noticia es que hoy en día existen muchas más oportunidades. Sin embargo, también enfrentamos una competencia estratégica significativa con la República Popular China, lo que hace más complejo equilibrar la apertura hacia quienes buscan las oportunidades que ofrece Estados Unidos, al mismo tiempo que protegemos activos clave, como nuestra propiedad intelectual.
¿Cree que las divisiones sobre la inmigración, especialmente durante el período electoral, pueden afectar a la capacidad de Estados Unidos para atraer talento en materia de IA?
Llevamos tanto tiempos estancados como país en temas de inmigración que nuestra capacidad para abordar la inmigración en los campos STEM se ve atrapada en ese estancamiento. Es un daño colateral.
La Ley de Chips, ¿ha sido un éxito?
He estado trabajando en el sector de los semiconductores desde que me licencié. Me sorprendió gratamente que, después de cuatro décadas, finalmente tomáramos medidas para evitar que la capacidad de fabricación de semiconductores se concentrara en una sola región del mundo, como es el caso de Taiwán. Para ello, fue crucial que, bajo el liderazgo del presidente, actuáramos al respecto. Además, creo que el Departamento de Comercio ha hecho un excelente trabajo al ofrecer incentivos para la fabricación.
Hasta ahora, uno de los principales beneficiarios de la Ley de Chips ha sido Intel. Sin embargo, existen diferentes opiniones sobre si logrará cumplir su objetivo de establecer una cadena de suministro nacional de semiconductores, tal y como se planteó en la ley. ¿Es arriesgado concentrar toda la apuesta en un único fabricante de chips?
Lo más importante que destaco sobre la industria y la Ley CHIPS es que, hoy en día, no solo tenemos a Intel, sino también a TSMC, Samsung, SK Hynix y Micron. Estas cinco empresas están a la vanguardia de la tecnología de semiconductores, con productos y procesos en los nodos más avanzados. Todas están construyendo fábricas en Estados Unidos. No hay ningún otro lugar en el mundo que cuente con las cinco. Una industria es mucho más que una sola empresa y, cuando miro el panorama en su conjunto, creo que esta es una señal clara de que estamos tomando un rumbo muy diferente.
Usted es la principal asesora del presidente en ciencia y tecnología, así que me gustaría preguntarle sobre cómo se percibe la importancia de la ciencia en la sociedad actual. Robert F. Kennedy Jr. ha sido seleccionado como candidato secretario de Sanidad, y en muchos sentidos, refleja la frustración que sienten los estadounidenses con el sistema de salud. Sin embargo, también tiene opiniones que pueden calificarse como anticientíficas. ¿Cómo ve la situación de la ciencia hoy en día?
Creo que es importante reconocer que vivimos en una época de disminución generalizada de la confianza en las instituciones, aunque la confianza en la ciencia sigue siendo alta en comparación con otros sectores. Sin embargo, esto forma parte de un fenómeno más amplio, y creo que la comunidad científica tiene algo que decir al respecto. A pesar de que Estados Unidos cuenta con la mejor investigación biomédica del mundo, los resultados en salud no son sólidos. Tres docenas de países tienen una esperanza de vida mayor que la de EE UU, y eso no es aceptable. Esta desconexión entre los avances científicos y la mejora en la vida de las personas no es sostenible. El pacto implícito entre la ciencia, la tecnología y la I+D con el pueblo estadounidense es que, si se realizan estas inversiones públicas, se mejorará la calidad de vida. Cuando esto no ocurre, la confianza se ve afectada.
¿Es correcto afirmar que esa brecha entre el conocimiento que tenemos en Estados Unidos y los malos resultados en salud contribuye, en parte, a aumentar las conspiraciones y la desconfianza en la ciencia?
Deja espacio para eso. Luego, existe un rechazo preocupante hacia los hechos. Esto resulta muy alarmante para los investigadores, que sabemos que lo que se dice no es cierto. Lo que realmente me angustia es que este rechazo de los hechos impacta directamente en la vida de las personas. Es algo extremadamente peligroso y dañino. Imagina lo que sucedería si perdiéramos la inmunidad de rebaño frente a algunas enfermedades para las cuales hoy contamos con altas tasas de vacunación. Antes de que las vacunas nos ayudaran a controlar las enfermedades infecciosas, vivíamos en un mundo mucho más peligroso.