Uno de los grandes males de la sociedad actual son los contenidos engañosos. Varias iniciativas intentan combatirlos con programas automáticos que buscan pistas para identificarlos o acelerar la labor de los verificadores humanos. Pero esta solución no durará mucho tiempo
Tal vez fuera la primera noticia falsa de la historia de internet: en 1984, alguien publicó que la Unión Soviética se unía a la red. Era una broma inofensiva del Día de los Inocentes que nada tiene que ver con las actuales campañas de desinformación y las creación sin escrúpulos de noticias falsas diseñadas para obtener beneficios a muy corto plazo (ver OFERTA: Manipule a los votantes con noticias falsas por menos de 400.000 euros). En 2017, los contenidos digitales engañosos y maliciosamente falsos se han vuelto tan comunes que las personas nos hemos quedado sin escapatoria ante ellos.
Mientras algunos, como el Partido Popular de España, intentan resolver el problema de las noticias falsas con leyes, otros creen que la solución está en las máquinas. AdVerif.ai es un nuevo algoritmo de la start-up con el mismo nombre. El software de inteligencia artificial (IA) está diseñado para detectar historias falsas, desnudos, malware y una serie de otros tipos de contenidos problemáticos. AdVerif.ai, que lanzó una versión beta en noviembre, ya está trabajando con plataformas de contenidos y redes publicitarias en Estados Unidos y Europa que no quieren asociarse con historias falsas o potencialmente ofensivas.
Según el fundador de AdVerif.ai, Or Levi, su empresa ha preferido centrarse en un producto para empresas en lugar de en algo dirigido al usuario medio. Mientras que los consumidores individuales pueden no preocuparse por la veracidad de cada historia que leen (ver Usted es la mejor (y tal vez la única) herramienta contra las noticias falsas), los anunciantes y las plataformas de contenidos pueden salir perdiendo si alojan o publicitar contenidos falsos. Y si cambian sus políticas podrían cercenar las fuentes de ingresos de las personas que ganan dinero generando noticias falsas. "Sería un gran paso en la lucha contra este tipo de contenidos", afirma Levi.
AdVerif.ai escanea los contenidos para detectar indicios de que algo no está bien, como titulares que no coinciden con el cuerpo de texto, por ejemplo, o demasiadas mayúsculas en un título. También verifica cada historia con su base de datos de miles de historias legítimas y falsas, que se actualiza semanalmente. Los clientes ven un informe por cada contenido que el sistema analice, con puntajes que evalúan la probabilidad de que algo sea una noticia falsa, incluya código malicioso o contenga cualquier otra cosa que el sistema tenga que buscar, como la desnudez. Levi planea añadir la capacidad de detectar imágenes manipuladas y ofrecer un complemento para navegadores web.
Al probar una versión de demostración de AdVerif.ai, su inteligencia artificial reconoció a la publicación The Onion (equivalente a El Mundo Today) como sátira (algo que ha engañado a muchas personas en el pasado). Las historias de Breitbart News fueron clasificadas como "poco fiables, derechistas, políticas, tendenciosas", mientras que Cosmopolitan fue considerada "izquierdista". Pudo identificar cuando una cuenta de Twitter usaba un logotipo pero los enlaces no estaban asociados con la marca que retrataba. AdVerif.ai no solo descubrió que una historia de Natural News con el titular Las pruebas apuntan a que Bitcoin es una guerra psicológica diseñada por la Agencia de Seguridad Nacional de EEUU para lanzar una moneda digital mundial provenía de una página de la lista negra, también la identificó como una noticia falsa que aparecía en otras páginas de la lista negra sin ninguna referencia por parte de organizaciones de noticias legítimas.
Algunas historias dudosas siguen colándose. En una página llamada Action News 3, una actualización titulada ¡Un jugador de la NFL es fotografiado quemando una bandera estadounidense en el vestuario! pasó la criba del sistema a pesar de que se ha demostrado que está prefabricada. Para ayudarle a aprender sobre la marcha, su lista negra de historias falsas puede ser actualizada manualmente contenido a contenido.
AdVerif.ai no es la única start-up que intenta aprovechar la oportunidad de proporcionar un suero de verdad con inteligencia artificial. Las firmas de ciberseguridad en particular se han apresurado a añadir servicios de detección de noticias falsas y bots a su repertorio, señalando cuánto se parecen muchos de los métodos al hackeo. Facebook está modificando sus algoritmos para que minimice la difusión de las noticias falsas y Google se ha asociado con una página de verificación de datos, hasta el momento con resultados mixtos. El Fake News Challenge (Desafío de Noticias Falsas), una competición dirigida por voluntarios de la comunidad de la inteligencia artificial, se lanzó a finales del año pasado con el objetivo de fomentar el desarrollo de herramientas que puedan ayudar a combatir los informes de mala fe.
Uno de sus organizadores y fundador de Joostware, una compañía que desarrolla sistemas de aprendizaje automático, Delip Rao, dijo que detectar noticias falsas tiene tantas facetas que el desafío va a requerir varias fases. La primera es la de "detección del posicionamiento", o tomar una historia y averiguar qué tienen que decir otras páginas de noticias sobre el tema. Esto permitiría que los verificadores humanos se basen en historias para validar otras historias y que pasen menos tiempo revisando historias individuales.
El Desafío de Noticias Falsas ofreció conjuntos de datos a los 50 equipos participantes. Talos Intelligence, una división de seguridad cibernética de Cisco, ganó el desafío con un algoritmo que acertó en más del 80%, algo que no está del todo a la altura, pero que aun así representa un resultado alentador. El próximo desafío podría abordar imágenes con texto superpuesto (piense en memes, pero con información falsa), un formato que a menudo es promocionado en redes sociales, ya que a los algoritmos su formato resulta más difícil de descifrar y comprender.
Rao afirma: "básicamente, queremos desarrollar las mejores herramientas para que los inspectores de verificación de datos puedan trabajar muy rápido, como si estuvieran bajo el efecto de esteroides".
Pero aunque se desarrolle un sistema efectivo para combatir la marea de contenidos falsos, es poco probable que ese sea el final de esta historia. Los sistemas de inteligencia artificial ya pueden crear textos falsos, así como imágenes y vídeos, increíblemente convincentes (ver La inteligencia artificial imita y sustituye personas, pero solo en vídeo). Quizás debido a esto, un estudio reciente de Gartner predice que en 2022 la mayoría de las personas en economías avanzadas verán más noticias falsas que reales. El mismo informe descubrió que incluso antes de que eso ocurra, los contenidos falsos excederán la capacidad de la inteligencia artificial para detectarlos, cambiando la forma en la que confiamos en las informaciones digitales (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX).
Así que parece que el trabajo de AdVerif.ai y otros no tendrá la última palabra en la guerra contra los contenidos falsos. Más bien será la primera vuelta de una carrera armamentística, en la que los creadores de contenidos falsos generarán su propia inteligencia artificial capaz de superar los sistemas con "buenas intenciones". Como sociedad, es posible que tengamos que replantearnos cómo obtenemos nuestra información.