.

Tecnología y Sociedad

El plan de Eric Schmidt para combatir la desinformación electoral en 2024

1

El ex CEO de Google espera que las empresas, el Congreso de EE UU y los reguladores tengan en cuenta sus consejos antes de que sea demasiado tarde

  • por Eric Schmidt | traducido por
  • 03 Enero, 2024

2024 será un año de cambios políticos. Más de 4.000 millones de personas acudirán a las urnas en países como EE UU, Taiwán, India e Indonesia. Por tanto, 2024 será el mayor año electoral de la historia.

Las campañas electorales utilizan la inteligencia artificial de formas novedosas. A principios de 2023, en EE UU, la campaña de Ron DeSantis, gobernador de Florida, para las primarias presidenciales republicanas publicó imágenes trucadas de Donald Trump. El Comité Nacional Republicano publicó un anuncio creado por IA que mostraba un futuro distópico en respuesta al anuncio de Joe Biden para su campaña de reelección. Y en noviembre, los candidatos presidenciales argentinos crearon mucho contenido generado por IA que retrataba al otro partido de forma poco favorecedora. Esta ola de deepfakes anuncia un nuevo campo de juego político. Según un informe publicado en octubre por Freedom House, en 2022 se utilizó la IA en al menos 16 países para sembrar la duda, difamar a los oponentes o influir en el debate público. Debemos prepararnos para más caos cuando en 2024 se celebren votaciones clave en todo el mundo.

Este año también traerá un cambio de paradigma para las redes sociales. El papel de Facebook y otras empresas ha condicionado nuestra concepción de estas plataformas como "plazas públicas" centralizadas y globales, con un flujo incesante de contenidos y una retroalimentación sin fricciones. Sin embargo, el caos en X (antes conocido como Twitter) y el descenso del uso de Facebook entre la generación Z -junto con el auge de apps como TikTok y Discord- indican que el futuro de las redes sociales puede ser muy diferente. En su afán de crecimiento, las plataformas han adoptado la amplificación de las emociones a través de algoritmos basados en la atención y feeds alimentados por recomendaciones.

Sin embargo, esto resta agencia a los usuarios (que no controlan lo que ven) y, en su lugar, deja conversaciones llenas de odio y discordia, así como una creciente epidemia de problemas de salud mental entre los jóvenes. Eso se aleja de la conversación global y democratizada de un mundo global con la que soñaban los idealistas hace 15 años. Muchos usuarios se encuentran a la deriva y han perdido la fe en estas plataformas, está claro que maximizar los ingresos ha perjudicado los intereses empresariales.

Ahora que la IA empieza a hacer que las redes sociales sean más tóxicas, las plataformas y los reguladores deben actuar con rapidez para recuperar la confianza de los usuarios y salvaguardar nuestra democracia. A continuación, propongo seis enfoques técnicos que las plataformas deberían redoblar para proteger a sus usuarios. La normativa y las leyes desempeñarán un papel crucial a la hora de incentivar u obligar a adoptar muchas de estas medidas. Aunque estas reformas no resolverán todos los problemas de desinformación, pueden frenar la marea antes de las elecciones de 2024.

1.     Verificar a los usuarios humanos. Debemos distinguir a los humanos que utilizan las redes sociales de los bots, y responsabilizar a ambos si infringen leyes o políticas. Esto no significa divulgar identidades. Al igual que nos sentimos seguros para subirnos al coche de un desconocido porque vemos las opiniones de los usuarios y sabemos que Uber ha verificado la identidad del conductor; del mismo modo, las corporaciones de redes sociales deben autenticar al ser humano que hay tras cada cuenta e introducir funciones basadas en la reputación para animar a los usuarios a ganarse la confianza de la comunidad.

2.     Conocer todas las fuentes. Conocer la procedencia del contenido y el momento en que entró en la red puede mejorar la confianza y la seguridad. Como primer paso, el uso de una marca de tiempo y una dirección IP cifrada (no extraíble) garantizaría un punto de origen identificable. Los actores maliciosos y sus feeds -descubribles a través de la cadena de custodia- podrían ser despriorizados o prohibidos en lugar de ser amplificados gracias al algoritmo. Aunque el tráfico VPN puede disuadir la detección, las plataformas pueden redoblar sus esfuerzos para mejorar la identificación de las VPN.

3.     Identificar deepfakes. En consonancia con la orden ejecutiva del presidente Biden sobre IA, que exige al Departamento de Comercio de EE UU que elabore directrices para poner marcas de agua a los contenidos generados por IA, las plataformas deben continuar desarrollando herramientas de detección y etiquetado. Para las plataformas, una forma de empezar es escanear una ya existente base de datos de imágenes e indicar al usuario si una imagen no tiene historial. Por ejemplo, Google Imágenes ha empezado a hacerlo. Los sistemas de IA también pueden entrenarse para detectar las firmas de deepfakes, al utilizar grandes conjuntos de imágenes verídicas contrastadas con imágenes etiquetadas como falsas. Este tipo de software puede indicar cuándo una imagen tiene muchas probabilidades de ser un deepfake, de forma similar al aviso de "peligro de spam" que se recibe en el móvil cuando llaman determinados números.

4.     Filtrar a lor anunciantes. Las empresas pueden compartir en todas las plataformas una "lista segura" de anunciantes, que incluye a quienes cumplan la legislación aplicable en materia de publicidad y se ajusten a las normas publicitarias de dichas plataformas. Estas también deben intensificar su escrutinio de los anuncios políticos, y añadir advertencias destacadas si se utiliza contenido sintético. Por ejemplo, en diciembre, Meta anunció que exigirá que los anuncios políticos indiquen si utilizan IA. 

5.     Utilizar a personas físicas para ayudar. Por supuesto, habrá errores, y algunos contenidos poco fiables escaparán a las protecciones. Pero el caso de Wikipedia demuestra que la desinformación puede ser controlada por seres humanos que siguen unas normas de contenido claras y detalladas. Además, las empresas deberían publicar normas de calidad para los contenidos y hacerlas cumplir al equipar más a sus equipos de confianza y seguridad, y aumentar esos equipos al propocionar herramientas a los voluntarios. Aún queda por ver cómo los humanos harán frente a una avalancha de material generado por IA procedente de chatbots, pero la tarea es menos desalentadora si se despliegan sistemas de IA entrenados para detectar y filtrar este tipo de contenidos.

6.     Invertir en investigación. Para que todos estos enfoques funcionen a gran escala, necesitaremos un compromiso a largo plazo, y eso comienza ya. Mi grupo filantrópico ayuda a crear marcos de pruebas gratuitos y de código abierto para muchos grupos de confianza y seguridad de la IA. Los investigadores, el gobierno y la sociedad civil también necesitarán un mayor acceso a los datos críticos de las plataformas. La Platform Accountability and Transparency Act, la Ley de Transparencia y Responsabilidad de Plataformas, es un proyecto de ley prometedor que, por ejemplo, exigiría a las plataformas cumplir con las solicitudes de datos de proyectos aprobados por la National Science Foundation.

Con un esfuerzo común entre empresas, reguladores y el Congreso de EE UU en 2024 podremos adoptar estas propuestas justo a tiempo para marcar la diferencia. Aunque me preocupa que todos se benefician de la desinformación favorable, en mayor o menor medida. A nuestros ciudadanos les divierten esos contenidos, nuestros líderes políticos pueden hacer campaña con ellos y los medios de comunicación obtienen tráfico al cubrir ejemplos sensacionalistas. Las existentes estructuras de incentivos harán que la desinformación sea difícil de eliminar. 

Las plataformas de medios sociales deben replantearse su diseño para la era de la IA, en especial, ahora que las democracias se enfrentan a una prueba histórica en todo el mundo. Para mí está claro que el futuro será el de muchos espacios online descentralizados que satisfagan todos los intereses, reflejen las opiniones de personas físicas (no de bots) y se centren en preocupaciones concretas de la comunidad. Hasta ese día, establecer estos límites ayudará a garantizar que las plataformas mantengan un nivel de discurso saludable, y no permitan que algoritmos opacos y orientados a la participación permitan que el contenido electoral habilitado por la IA corra de manera desenfrenada.

Eric Schmidt fue CEO de Google de 2001 a 2011. Ahora, es cofundador de Schmidt Futures, una iniciativa filantrópica que apuesta desde el principio por personas excepcionales que hacen un mundo mejor, aplican la ciencia y la tecnología, y reúnen a personas de distintas disciplinas

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. La nueva baza de China para presionar a EE UU pasa por restringir la exportación de litio

    China es una potencia en energías limpias, especialmente en las cadenas de suministro de baterías. Por ello, las tensiones y restricciones comerciales entre China y EE UU podrían poner en riesgo el avance en tecnologías climáticas y el desarrollo de vehículos eléctricos

  2. La suplantación de identidad amenaza la credibilidad de Bluesky

    Varios usuarios han sido víctimas de suplantación de identidad en Bluesky, una situación que pone de manifiesto un problema relacionado con el auge de cuentas falsas que, si no se aborda, podría dañar la reputación y credibilidad de la plataforma

    La suplantación de identidad amenaza la credibilidad de Bluesky
  3. Arati Prabhakar, directora saliente de Ciencia y Tecnología de EE UU: "Queremos entender si la IA es segura, pero aún no sabemos cómo"

    La directora de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca, que probablemente dejará su cargo al finalizar la administración Biden, reflexiona sobre aspectos como los riesgos de la IA, las políticas migratorias y la Ley de Chips

    Arati Prabhakar, directora de Ciencia y Tecnología de EE UU