Tecnología y Sociedad
Prepárate para luchar contra la desinformación en 2024: Eric Schmidt tiene algunos consejos
Este año se celebrarán más de 40 elecciones nacionales en todo el mundo, en medio de grandes cambios en las plataformas de redes sociales.
Este artículo pertenece a The Technocrat, el boletín semanal de MIT Technology Review sobre política tecnológica, poder, política y Silicon Valley. Para recibirlo en tu bandeja de entrada cada viernes, suscríbete aquí.
Para los lectores de Technocrat (¡y para el resto del mundo!), este va a ser un año trepidante, con más de 40 elecciones nacionales en todo el mundo y un panorama de tecnologías de la información en constante evolución.
Una de las principales áreas a las que permanecer atentos, por supuesto, será la IA generativa, en particular cómo cambia las redes sociales, las campañas políticas y la lucha contra la desinformación electoral. Esta confluencia de nuevas tecnologías y grandes elecciones se produce al mismo tiempo que el sector de las redes sociales experimenta grandes cambios, como modificaciones en los enfoques de moderación, batallas legales, recortes en los equipos de confianza y seguridad y reorganización de plataformas.
Todo esto hace que el futuro de la lucha contra la desinformación sea, cuando menos, incierto. Es un tema que mis colegas y yo nos tomamos muy en serio y que hemos tratado ampliamente en el pasado. Y recientemente, en MIT Technology Review, el antiguo jefe de Google, Eric Schmidt, escribió un artículo de opinión en el que expone lo que él llama "un cambio de paradigma para las plataformas de medios sociales":
El papel de Facebook y otros ha condicionado nuestra concepción de las redes sociales como "plazas públicas" centralizadas y globales, con un flujo incesante de contenidos y una retroalimentación sin fricciones. Sin embargo, el caos en X (antes conocido como Twitter) y el descenso en el uso de Facebook entre la generación Z —junto con el auge de aplicaciones como TikTok y Discord— indican que el futuro de las redes sociales puede ser muy diferente. En su afán de crecimiento, las plataformas han adoptado la amplificación de las emociones a través de algoritmos basados en la atención y de feeds impulsados por recomendaciones.
Pero esto ha quitado poder a los usuarios (no controlamos lo que vemos) y nos ha dejado en su lugar con conversaciones llenas de odio y discordia, así como una creciente epidemia de problemas de salud mental entre los adolescentes... Ahora, con la IA empezando a hacer que las redes sociales sean mucho más tóxicas, las plataformas y los reguladores tienen que actuar con rapidez para recuperar la confianza de los usuarios y salvaguardar nuestra democracia".
Schmidt expone a continuación un plan de seis puntos que las empresas de medios sociales pueden seguir para estar a la altura de las circunstancias. Me alegró ver que mencionaba la importancia de la información de procedencia, sobre la que ya he escrito en varias ocasiones. Es un artículo perspicaz y útil que, sin duda, te recomiendo que leas.
En las próximas semanas publicaremos más artículos sobre lo que nos deparará la tecnología en 2024. Y si quieres ponerte al día con algunas historias anteriores que te hayas perdido, aquí tienes algunas de mis favoritas de mis colegas de 2023:
-
Esta nueva herramienta podría dar a los artistas una ventaja sobre la IA, de Melissa Heikkilä
-
¿Trampas o apoyo formativo? Cómo ChatGPT va a transformar la educación, de Will Douglas Heaven
-
ChatGPT va a revolucionar la economía: el cómo depende de todos nosotros, de David Rotman
-
Por qué el sueño de la energía de fusión no va a desaparecer, de Casey Crownhart
-
La IA que no se agota: 'deepfakes' de 'influencers' chinos para retransmitir sin descanso, de Zeyi Yang
Lo que estoy leyendo esta semana
-
Pues bien, ya se ha aprobado la Ley de Inteligencia Artificial de la UE, que establece la norma mundial para la regulación de la IA. Aquí tienes cinco cosas que debes saber sobre ella, de mi colega Melissa. Y si quieres saber más sobre por qué fue tan difícil cruzar la línea de meta, lee mi Technocrat al respecto.
-
Me ha parecido muy esclarecedor este reportaje de Vox sobre cómo puede ser útil la terapia con chatbot.
-
Esta investigación sobre el Fondo de Derechos Humanos de Yahoo y una demanda en curso, que alega que muy poco del dinero fue a donde se suponía que tenía que ir, plantea cuestiones realmente interesantes sobre cómo las empresas tecnológicas tratan la presión política y la mensajería.
Lo que he aprendido esta semana
Según un nuevo estudio de las organizaciones sin ánimo de lucro AI Forensics y AlgorithmWatch, el chatbot de inteligencia artificial Bing de Microsoft, rebautizado como Microsoft Copilot, se equivocó en un tercio de las ocasiones en la información electoral. Will Oremus, del Washington Post, escribe que los resultados del estudio "refuerzan la preocupación de que los chatbots de IA actuales puedan contribuir a la confusión y la desinformación en torno a futuras elecciones, a medida que Microsoft y otros gigantes tecnológicos se apresuran a integrarlos en productos cotidianos, incluida la búsqueda en Internet". Un recordatorio de que no hay que confiar en la IA generativa para las noticias.