Los últimos 12 meses han sido muy ajetreados para quienes trabajan en el campo de la inteligencia artificial. Ha habido más lanzamientos de productos de los que podemos contar, e incluso premios Nobel. Sin embargo, no siempre ha sido un camino de rosas.
La inteligencia artificial es una tecnología impredecible, y la expansión de los modelos generativos ha impulsado a muchas personas a explorar sus límites de maneras innovadoras, extrañas y, en ocasiones, perjudiciales. Estos son algunos de los mayores errores de la IA en 2024.
- La bazofIA llegó a casi todos los rincones de Inte et
La facilidad de generar contenido de baja calidad con IA ha llevado a que esta "bazofia" esté presente en prácticamente todos los rincones de Inte et. Desde en boletines de noticias y libros de Amazon hasta en anuncios, artículos y fotos de dudosa calidad en redes sociales. Cuanto más impactantes desde el punto de vista emocional sean estas imágenes —como fotos de veteranos de guerra heridos, niños llorando o muestras de apoyo a Palestina— más probable es que se compartan, lo que genera mayores ingresos publicitarios para sus creadores.
La proliferación de la IA de baja calidad no solo es molesta, sino que también plantea un grave desafío para el futuro de los propios modelos que contribuyen a generarla. Dado que estos se entrenan con datos extraídos de Inte et, el incremento de sitios web de baja calidad con contenido generado por IA podría hacer que los resultados y el rendimiento de los modelos empeoren.
- El arte generado por IA distorsiona nuestra visión de la realidad
De manera similar, cientos de personas se reunieron en las calles de Dublín para asistir a un desfile de Halloween que nunca existió. Un sitio web con sede en Pakistán usó IA para generar una lista de eventos en la ciudad que se compartió ampliamente en redes sociales antes del 31 de octubre. Aunque la página (myspirithalloween.com) fue eliminada, ambos incidentes muestran cómo la confianza del público en el contenido generado por IA puede jugar en su contra.
- Grok permite a los usuarios crear imágenes de casi cualquier cosa
Mientras que otros modelos de generación de imágenes se niegan a crear contenidos con figuras públicas, material protegido por derechos de autor, violencia o terrorismo, a menos que se les manipule para eludir estas restricciones, Grok no tiene reparos en generar imágenes como la de Donald Trump disparando una bazuca o la de Mickey Mouse sosteniendo una bomba. Aunque evita generar imágenes explícitas, su postura hacia el cumplimiento de las normas pone en entredicho los esfuerzos de otras compañías por prevenir la creación de contenido problemático.
- En Inte et circulan deepfakes sexuales de Taylor Swift
Aunque Microsoft corrigió rápidamente los errores en su sistema, el incidente expuso las deficiencias en las políticas de moderación de contenido de las plataformas: las imágenes se compartieron rápidamente y permanecieron visibles durante varios días. Lo más alarmante, sin embargo, es lo poco que hemos avanzado en la lucha contra la po ografía deepfake. Aunque las marcas de agua y las herramientas de envenenamiento de datos pueden ayudar, su implementación masiva será esencial para lograr un cambio real.
- Los chatbots empresariales se volvieron locos
Air Canada lo descubrió de la peor manera posible: cuando su chatbot recomendó a un cliente seguir una política de reembolso por duelo que, en realidad, no existía. En febrero, un tribunal canadiense de reclamaciones falló a favor del cliente. La aerolínea, por su parte, defendió que el chatbot era una "entidad legal independiente, responsable de sus propios actos".
En otros casos de cómo los chatbots pueden causar más problemas que soluciones, el de la empresa de mensajería DPD insultó a los usuarios y se autodenominó inútil sin que nadie lo solicitara. Por otro lado, un chatbot diseñado para ofrecer a los neoyorquinos información precisa sobre el gobie o de su ciudad, terminó dando consejos sobre cómo infringir la ley.
- Los dispositivos de IA fracasan en el mercado
- Los resúmenes de búsqueda por IA no acertaron
Aunque estos fallos resultaron curiosos, los resúmenes generados por inteligencia artificial pueden tener consecuencias mucho más graves. Recientemente, una nueva función del iPhone que agrupa las notificaciones de las aplicaciones y genera resúmenes de su contenido, causó un gran revuelo al difundir un titular falso de BBC News. Afirmaba erróneamente que Luigi Mangione, acusado del asesinato del director general de una aseguradora, Brian Thompson, se había suicidado. Además, la misma herramienta había generado antes otro titular falso afirmando que el primer ministro israelí, Benjamin Netanyahu, había sido arrestado. Este tipo de errores no solo propaga información incorrecta, sino que también puede socavar la confianza en los medios de comunicación.

