.

Qué anticipan los errores de la IA en 2024 sobre su futuro

SARAH ROGERS/MITTR | ADOBE STOCK

Inteligencia Artificial

Qué anticipan los errores de la IA en 2024 sobre su futuro

1

La IA ha traído grandes avances, pero también importantes fallos. En este repaso, destacamos los mayores fracasos del año, que van desde chatbots que ofrecen consejos ilegales hasta resultados de búsqueda poco fiables

  • por Rhiannon Williams | traducido por
  • 03 Enero, 2025

Los últimos 12 meses han sido muy ajetreados para quienes trabajan en el campo de la inteligencia artificial. Ha habido más lanzamientos de productos de los que podemos contar, e incluso premios Nobel. Sin embargo, no siempre ha sido un camino de rosas.

La inteligencia artificial es una tecnología impredecible, y la expansión de los modelos generativos ha impulsado a muchas personas a explorar sus límites de maneras innovadoras, extrañas y, en ocasiones, perjudiciales. Estos son algunos de los mayores errores de la IA en 2024.

1. La bazofIA llegó a casi todos los rincones de Internet

La IA generativa ha revolucionado la creación de contenido, permitiendo generar texto, imágenes, vídeos y más en cuestión de segundos. Gracias a su rapidez, bastan unos pocos segundos para que el modelo entregue un resultado tras recibir una instrucción, lo que ha convertido a estas herramientas en una forma ágil de producir contenido a gran escala. Sin embargo, 2024 fue el año en que comenzamos a identificar estos productos (generalmente de baja calidad) por lo que realmente son: bazofia de IA (slop, en inglés).

La facilidad de generar contenido de baja calidad con IA ha llevado a que esta "bazofia" esté presente en prácticamente todos los rincones de Internet. Desde en boletines de noticias y libros de Amazon hasta en anuncios, artículos y fotos de dudosa calidad en redes sociales. Cuanto más impactantes desde el punto de vista emocional sean estas imágenes —como fotos de veteranos de guerra heridosniños llorando o muestras de apoyo a Palestina— más probable es que se compartan, lo que genera mayores ingresos publicitarios para sus creadores.

La proliferación de la IA de baja calidad no solo es molesta, sino que también plantea un grave desafío para el futuro de los propios modelos que contribuyen a generarla. Dado que estos se entrenan con datos extraídos de Internet, el incremento de sitios web de baja calidad con contenido generado por IA podría hacer que los resultados y el rendimiento de los modelos empeoren.

2. El arte generado por IA distorsiona nuestra visión de la realidad

2024 también ha sido el año en el que hemos empezado a convivir con imágenes falsas generadas por IA. Un ejemplo de ello fue Willy’s Chocolate Experience, un evento inmersivo no oficial inspirado en Charlie y la fábrica de chocolate, de Roald Dahl, que acaparó titulares a nivel mundial en febrero. El marketing, creado por IA, hizo que los asistentes pensaran que sería una experiencia mucho más impresionante de lo que realmente fue, sobre todo al compararlo con el almacén casi sin decorar que los organizadores ofrecieron.

De manera similar, cientos de personas se reunieron en las calles de Dublín para asistir a un desfile de Halloween que nunca existió. Un sitio web con sede en Pakistán usó IA para generar una lista de eventos en la ciudad que se compartió ampliamente en redes sociales antes del 31 de octubre. Aunque la página (myspirithalloween.com) fue eliminada, ambos incidentes muestran cómo la confianza del público en el contenido generado por IA puede jugar en su contra.

3. Grok permite a los usuarios crear imágenes de casi cualquier cosa

La mayoría de los principales generadores de imágenes de inteligencia artificial cuentan con reglas que limitan lo que los modelos pueden y no pueden hacer. El objetivo es evitar la creación de contenidos violentos, explícitos, ilegales o dañinos. En muchos casos, estas restricciones también buscan prevenir el uso indebido de la propiedad intelectual. Sin embargo, Grok, el asistente desarrollado por xAI, la empresa de IA de Elon Musk, omite casi todas estas directrices, alineándose con la postura de Musk contra lo que él denomina "IA woke".

Mientras que otros modelos de generación de imágenes se niegan a crear contenidos con figuras públicas, material protegido por derechos de autor, violencia o terrorismo, a menos que se les manipule para eludir estas restricciones, Grok no tiene reparos en generar imágenes como la de Donald Trump disparando una bazuca o la de Mickey Mouse sosteniendo una bomba. Aunque evita generar imágenes explícitas, su postura hacia el cumplimiento de las normas pone en entredicho los esfuerzos de otras compañías por prevenir la creación de contenido problemático.

4. En Internet circulan deepfakes sexuales de Taylor Swift

En enero de 2024 comenzaron a circular en redes sociales, como X y Facebook, imágenes falsas y no consentidas de la cantante Taylor Swift en situaciones explícitas. Una comunidad en Telegram engañó a Designer, el generador de imágenes de IA de Microsoft, para crear estas fotografías. La situación mostró cómo, incluso con barreras de seguridad, es posible eludirlas.

Aunque Microsoft corrigió rápidamente los errores en su sistema, el incidente expuso las deficiencias en las políticas de moderación de contenido de las plataformas: las imágenes se compartieron rápidamente y permanecieron visibles durante varios días. Lo más alarmante, sin embargo, es lo poco que hemos avanzado en la lucha contra la pornografía deepfake. Aunque las marcas de agua y las herramientas de envenenamiento de datos pueden ayudar, su implementación masiva será esencial para lograr un cambio real.

5. Los chatbots empresariales se volvieron locos

A medida que la IA se generaliza, las empresas aceleran la adopción de estas herramientas para ahorrar tiempo, reducir costes y mejorar la eficiencia. Sin embargo, el problema radica en que los chatbots tienden a inventar información y esto genera dudas sobre su fiabilidad para ofrecer datos precisos.

Air Canada lo descubrió de la peor manera posible: cuando su chatbot recomendó a un cliente seguir una política de reembolso por duelo que, en realidad, no existía. En febrero, un tribunal canadiense de reclamaciones falló a favor del cliente. La aerolínea, por su parte, defendió que el chatbot era una "entidad legal independiente, responsable de sus propios actos".

En otros casos de cómo los chatbots pueden causar más problemas que soluciones, el de la empresa de mensajería DPD insultó a los usuarios y se autodenominó inútil sin que nadie lo solicitara. Por otro lado, un chatbot diseñado para ofrecer a los neoyorquinos información precisa sobre el gobierno de su ciudad, terminó dando consejos sobre cómo infringir la ley.

6. Los dispositivos de IA fracasan en el mercado

En 2024, la industria también intentó desplegar hardware con asistentes de IA, pero no logró el éxito esperado. Humane presentó el Ai Pin, un ordenador portátil de solapa que, a pesar de reducir su precio, nunca tuvo grandes ventas. Algo similar ocurrió con el Rabbit R1, un asistente personal basado en ChatGPT, que recibió duras críticas por su lentitud y fallos. Ambos productos parecían querer resolver un problema que, en realidad, no existía.

7. Los resúmenes de búsqueda por IA no acertaron

¿Alguna vez has pensado en añadir pegamento a una pizza o en comerte una piedra pequeña? Estas son solo algunas de las extrañas sugerencias que AI Overviews ofreció a los usuarios en mayo, después de que el gigante de las búsquedas comenzara a mostrar respuestas generadas en la parte superior de los resultados. El problema radica en que los sistemas de IA no tienen la capacidad de diferenciar entre una noticia veraz y un chiste de Reddit. Por tanto, los usuarios comenzaron a explorar las respuestas más absurdas que podía generar la herramienta.

Aunque estos fallos resultaron curiosos, los resúmenes generados por inteligencia artificial pueden tener consecuencias mucho más graves. Recientemente, una nueva función del iPhone que agrupa las notificaciones de las aplicaciones y genera resúmenes de su contenido, causó un gran revuelo al difundir un titular falso de BBC NewsAfirmaba erróneamente que Luigi Mangione, acusado del asesinato del director general de una aseguradora, Brian Thompson, se había suicidado. Además, la misma herramienta había generado antes otro titular falso afirmando que el primer ministro israelí, Benjamin Netanyahu, había sido arrestado. Este tipo de errores no solo propaga información incorrecta, sino que también puede socavar la confianza en los medios de comunicación.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. De la creatividad humana a la automatización: la IA agrava la precariedad en la traducción de manga

    La editorial japonesa Orange quiere llevar el manga al mayor número posible de lectores, pero algunos fans no están contentos con los resultados de las traducciones realizadas con IA

    La editorial japonesa Orange
  2. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  3. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen