Cadenas de bloques y aplicaciones
Los tres retos de Facebook para eliminar las noticias falsas con IA
Por mucho que Mark Zuckerberg crea que la inteligencia artificial automatizará gran parte del proceso de detectar y eliminar los contenidos falsos que se publican en la red social, para lograrlo hay que abordar tres grandes problemas intrínsecos de la propia tecnología
La semana el CEO de Facebook, Mark Zuckerberg, le dijo al Congreso de Estados Unidos que su red social se va a apoyar cada vez más en la inteligencia artificial (IA) para eliminar el discurso de odio que tanto se ha masificado en la plataforma. Zuckerberg afirmó: "Soy optimista, y creo que en un período de cinco a 10 años tendremos herramientas de inteligencia artificial capaces de detectar algunos de los matices lingüísticos de diferentes tipos de contenido para ser más precisos". El CEO fue llamado a testificar después del escándalo de la apropiación indebida de los datos personales de millones de usuarios por parte de Cambridge Analytica (ver Los efectos del escándalo de Facebook para el futuro de la democracia).
Facebook ya emplea a 15.000 moderadores humanos para detectar y eliminar contenido ofensivo y explicó que planea contratar a otros 5.000 a finales de este año. Pero de momento, esos moderadores solo actúan ante publicaciones que los propios usuarios ya han denunciado como contenido ofensivo. La IA podría identificar y eliminar el contenido potencialmente ofensivo más rápido y fácilmente. Pero lograrlo no será fácil, principalmente por tres razones:
1. Las palabras son fáciles de identificar, pero su significado no
El lenguaje sigue siendo un gran desafío para la IA. Aunque a un ordenador no le cuesta demasiado identificar palabras o frases clave, o valorar a qué sentimientos se asocia un texto, a las máquinas le cuesta mucho comprender el significado de una publicación. Esta capacidad requeriría un conocimiento mucho más profundo del mundo. Lo que hace que el lenguaje sea una forma de comunicación tan poderosa y compleja es el sentido común y los modelos mentales que tenemos de otras personas y que usamos para comprimir mucha información en pocas palabras.
"Los bulos en particular serán muy difíciles de reconocer", dice el profesor de la Universidad de Nueva York (EE. UU.) Ernest Davis, especializado en el desafío del razonamiento de sentido común en los ordenadores. El experto añade: "Mira lo que hacen en Maldito Bulo, ellos analizan una gran variedad de cosas. Y los bulos a menudo se componen de medias verdades".
2. Es una carrera armamentística
Por mucho que las máquinas mejoren su capacidad de entender el lenguaje natural, quienes promueven el odio y la información falsa podrían utilizar las mismas herramientas para evitar ser detectados.
Así lo advierte el CEO de Primer, Sean Gourley, cuya compañía emplea IA para generar informes para las agencias de inteligencia de EE. UU. En un evento reciente de MIT Technology Review, Gourley afirmó que en un futuro no muy lejano será inevitable que la IA se use para producir bulos y noticias falsas de forma masiva y personalizada (ver Las noticias falsas 2.0 serán mucho más creíbles e imparables)
3. El vídeo complicará las cosas aún más
Tal vez ya estamos asistiendo al comienzo de una era mucho más agresiva de noticias falsas (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Los investigadores han demostrado que es posible producir vídeos y audios falsos increíblemente realistas mediante el aprendizaje automático. Esta tecnología ha permitido crear vídeos de políticos que parecen lanzar discursos que en realidad nunca ocurrieron, y organizar venganzas mediante pornografía falsificada.
Comprender lo que pasa en un vídeo es uno de los retos actuales de los investigadores de IA. Los vídeos falsos hechos de esta manera también podrían resultar especialmente difíciles de detectar para una inteligencia artificial. Para crearlos hacen falta una tecnología que enfrenta a dos redes neuronales que compiten para generar y detectar imágenes falsas (ver TR10: Redes generativas antagónicas). El proceso depende de engañar a una de las redes para que piense que algo es real, así que construir un sistema que pueda detectar a las falsificaciones sería difícil.