Un sistema propuesto por investigadores del MIT, OpenAI, Microsoft y otros organismos podría frenar el uso de IA engañosa aprovechando los puntos débiles de esta tecnología
A medida que los modelos de IA imitan mejor el comportamiento humano, resulta cada vez más difícil distinguir entre los usuarios humanos reales de Internet y los sofisticados sistemas que los imitan.
Esto es un verdadero problema cuando esos sistemas se utilizan con fines maliciosos, como difundir información errónea o cometer fraudes, y hace mucho más difícil confiar en lo que uno encuentra en Internet.
Un grupo de 32 investigadores de instituciones como OpenAI, Microsoft, MIT y Harvard ha desarrollado una posible solución: un concepto de verificación llamado “credenciales de persona”. Estas credenciales demuestran que su titular es una persona real, sin revelar más información sobre su identidad. El equipo exploró la idea en un artículo no revisado por pares publicado en el servidor de preimpresos arXiv a principios de este mes.
Las credenciales de identidad se basan en el hecho de que los sistemas de IA aún no pueden eludir los sistemas criptográficos más avanzados ni hacerse pasar por personas en el mundo real.
Para solicitarlas, las personas tendrían que acudir físicamente a uno de los emisores, como un gobierno u otro tipo de organización de confianza. Se les pediría que aportaran pruebas de que son personas reales, como un pasaporte o datos biométricos. Una vez aprobadas, recibirían una única credencial que podrían almacenar en sus dispositivos de la misma forma que actualmente es posible almacenar tarjetas de crédito y débito en las aplicaciones de monedero de los teléfonos inteligentes.
Para utilizar estas credenciales en línea, el usuario podría presentarlas a un proveedor de servicios digitales externo, que las verificaría mediante un protocolo criptográfico denominado prueba de conocimiento cero. Esto confirmaría que el titular está en posesión de una credencial de identidad sin revelar más información innecesaria.
La capacidad de filtrar a cualquiera que no sea un ser humano verificado en una plataforma podría ser útil de muchas maneras. Por ejemplo, la gente podría rechazar en Tinder a personas que no tengan credenciales de identidad, o decidir no ver nada en las redes sociales que no haya sido publicado por una persona.
Los autores quieren animar a gobiernos, empresas y organismos reguladores a considerar la adopción de un sistema de este tipo en el futuro para evitar engaños protagonizados por las IAs que escapen de nuestro control.
“La IA está en todas partes. Habrá muchas cuestiones, muchos problemas y muchas soluciones”, afirma Tobin South, estudiante de doctorado del MIT que ha trabajado en el proyecto. “Nuestro objetivo no es prescribir esto al mundo, sino abrir la conversación sobre por qué lo necesitamos y cómo podría llevarse a cabo”.
Ya existen posibles opciones técnicas. Por ejemplo, una red llamada Idena afirma ser el primer sistema blockchain de prueba de persona. Funciona haciendo que los humanos resuelvan enigmas que serían difíciles para los bots en un plazo de tiempo rápido. El controvertido programa Worldcoin, que recopila datos biométricos de los usuarios, se autoproclama la mayor red financiera y de identidad humana del mundo que preserva la privacidad. Recientemente se asoció con el gobierno de Malasia para proporcionar una prueba de humanidad en línea escaneando el iris de los usuarios, lo que crea un código. Como en el concepto de credenciales de persona, cada código está protegido mediante criptografía.
Sin embargo, el proyecto ha sido criticado por utilizar prácticas de marketing engañosas, recopilar más datos personales de los que reconoce y no obtener un consentimiento significativo por parte de los usuarios. Los organismos reguladores de Hong Kong y España prohibieron el funcionamiento de Worldcoin a principios de este año, mientras que sus operaciones se han suspendido en países como Brasil, Kenia e India.
Por tanto, siguen siendo necesarios nuevos conceptos. Según Henry Ajder, experto en IA y falsificaciones profundas y asesor de Meta y del Gobierno británico, el rápido auge de herramientas de IA accesibles ha dado paso a un peligroso periodo en el que los usuarios de Internet son hipersospechosos sobre lo que es cierto y lo que no en la red. Y aunque hace tiempo que existen ideas para verificar la personalidad de las personas, estas credenciales parecen una de las ideas más sustanciales para contrarrestar el escepticismo, afirma.
Pero el mayor reto al que se enfrentarán las credenciales es conseguir que las adopten suficientes plataformas, servicios digitales y gobiernos, ya que pueden sentirse incómodos ajustándose a un estándar que no controlan. “Para que esto funcione con eficacia, tendría que ser algo que se adoptara universalmente”, afirma. “En principio, la tecnología es bastante convincente, pero en la práctica y en el desordenado mundo de los seres humanos y las instituciones, creo que habría bastante resistencia”.
Martin Tschammer, responsable de seguridad de la startup Synthesia, que crea deepfakes hiperrealistas generados por IA, dice estar de acuerdo con el principio que impulsa las credenciales de persona: la necesidad de verificar a los humanos en línea. Sin embargo, no está seguro de que sea la solución adecuada o de que su aplicación sea práctica. También se muestra escéptico sobre quién podría gestionar un sistema así.
“Podemos acabar en un mundo en el que centralicemos aún más el poder y concentremos la toma de decisiones sobre nuestras vidas digitales, dando a las grandes plataformas de Internet aún más potestad sobre lo que puede estar en línea y su propósito”, afirma. “Y, dados los mediocres resultados de algunos gobiernos en la adopción de servicios digitales, y las tendencias autocráticas que van en aumento, ¿es práctico o realista esperar que este tipo de tecnología se adopte en masa y de forma responsable a finales de esta década?”.
En lugar de esperar a la colaboración entre industrias, Synthesia está evaluando actualmente cómo integrar otros mecanismos de comprobación de la personalidad en sus productos. Dice que ya cuenta con varias medidas. Por ejemplo, exige a las empresas que demuestren que son empresas legítimas registradas, y prohibirá y denegará el reembolso a los clientes que incumplan sus normas.
Una cosa está clara: necesitamos urgentemente formas de diferenciar a los humanos de los robots, y fomentar el debate entre los actores del mundo de la tecnología y de la política es un paso en la dirección correcta, afirma Emilio Ferrara, profesor de informática de la Universidad del Sur de California, que no participó en el proyecto.
“No estamos lejos de un futuro en el que, si las cosas siguen sin control, vamos a ser esencialmente incapaces de distinguir las interacciones que tenemos en línea con otros seres humanos o con algún tipo de bots. Hay que hacer algo”, afirma. “No podemos ser ingenuos como lo fueron las generaciones anteriores con otras tecnologías”.