
Si los últimos 12 meses nos han enseñado algo, es que el tren del hype de la IA no muestra señales de desacelerar. Cuesta creer que, a comienzos de 2025, DeepSeek aún no había puesto la industria patas arriba, Meta era más conocida por intentar (y fallar) en hacer que el metaverso fuera cool que por su empeño incansable en dominar la superinteligencia, y el vibe coding ni siquiera existía.
Si todo esto te deja un poco confundido, no te preocupes. Nuestros redactores han repasado los términos relacionados con la IA que dominaron el año del 2025, para bien o para mal.
Asegúrate de tomarte el tiempo necesario para prepararte para lo que promete ser otro año de locura.
—Rhiannon Williams
1. Superinteligencia

Desde que la gente empezó a entusiasmarse con la IA, ha ido proponiendo nombres para una forma futura y ultrapotente de esta tecnología que podría traer consecuencias utópicas o distópicas para la humanidad. “Superinteligencia” es el último término de moda. Meta anunció en julio que crearía un equipo de IA dedicado a perseguir la superinteligencia y, según se informó, estaba ofreciendo paquetes de compensación de nueve cifras para atraer a expertos en IA provenientes de empresas competidoras
En diciembre, el responsable de IA de Microsoft siguió el mismo camino y afirmó que la empresa destinaría grandes sumas, quizá cientos de miles de millones de dólares, a la búsqueda de la superinteligencia. Si crees que la superinteligencia está tan vagamente definida como la inteligencia artificial general, o AGI, ¡estás en lo cierto! Aunque es concebible que este tipo de tecnologías puedan ser factibles a largo plazo para la humanidad, la verdadera cuestión es cuándo, y si la IA actual es lo suficientemente buena como para considerarse un paso hacia algo parecido a la superinteligencia. Claro que eso no detendrá a los reyes del hype.
—James O’Donnell
2. Vibe coding

Hace treinta años, Steve Jobs dijo que todo el mundo en Estados Unidos debería aprender a programar un ordenador. Hoy, personas sin ningún conocimiento de programación pueden montar una app, un juego o una página web en muy poco tiempo gracias al vibe coding, un término paraguas acuñado por el cofundador de OpenAI, Andrej Karpathy. Para hacer vibe coding, basta con que des indicaciones (prompts) a los asistentes de programación de modelos generativos de IA para que creen el objeto digital que deseas y aceptes prácticamente todo lo que producen. ¿Funcionará el resultado? Posiblemente no. ¿Será seguro? Casi con toda seguridad que no, pero los mayores defensores de esta técnica no dejan que esos pequeños detalles se interpongan en su camino. Además, ¡suena divertido!
—Rhiannon Williams
3. Psicosis por chatbot

Uno de los grandes temas sobre IA del último año ha sido cómo las interacciones prolongadas con chatbots pueden llevar a que personas vulnerables experimenten delirios y, en algunos casos extremos, provocar o agravar episodios de psicosis. Aunque “psicosis por chatbot” no es un término médico reconocido, los investigadores están prestando mucha atención al creciente cúmulo de testimonios de usuarios que aseguran que les ha ocurrido a ellos o a alguien que conocen. Lamentablemente, el aumento de demandas judiciales presentadas contra empresas de IA por las familias de personas que fallecieron tras sus conversaciones con chatbots demuestra las consecuencias potencialmente mortales de esta tecnología.
—Rhiannon Williams
4. «Razonamiento» (Reasoning)

Pocas cosas han alimentado tanto el tren del hype de la IA este año como los llamados reasoning models, modelos de lenguaje de gran tamaño capaces de descomponer un problema en múltiples pasos e ir resolviéndolos uno por uno. OpenAI lanzó sus primeros modelos de razonamiento, o1 y o3, hace un año.
Un mes después, la empresa china DeepSeek tomó a todo el mundo por sorpresa con una respuesta muy rápida, publicando R1, el primer modelo de razonamiento de código abierto. En poco tiempo, los reasoning models se convirtieron en el estándar de la industria: todos los grandes chatbots de consumo masivo ahora tienen versiones basadas en esta tecnología. Los reasoning models han ampliado los límites de lo que pueden hacer los LLM, igualando el rendimiento humano de primer nivel en prestigiosos concursos de matemáticas y programación. Por otro lado, todo el revuelo en torno a los LLM que supuestamente pueden “razonar” reavivó viejos debates sobre cuán inteligentes son realmente estos modelos y cómo funcionan en la práctica. Igual que “inteligencia artificial”, “reasoning” es jerga técnica revestida de brillo de marketing. ¡Choo choo!
—Will Douglas Heaven
5. World models

A pesar de su sorprendente capacidad para manejar el lenguaje, los LLM tienen muy poco sentido común. En pocas palabras, no tienen ninguna base sobre cómo funciona realmente el mundo. Son aprendices de libro en el sentido más literal: pueden explayarse poéticamente sobre prácticamente cualquier tema y luego fallar estrepitosamente con un despropósito sobre cuántos elefantes caben en una piscina olímpica (exactamente uno, según uno de los LLM de Google DeepMind).
Los world models, un paraguas que engloba diversas tecnologías, aspiran a dotar a la IA de cierto sentido común básico sobre cómo encajan las cosas en el mundo real. En su forma más vívida, modelos como Genie 3 y Marble de Google DeepMind, o la esperada nueva tecnología de World Labs, la start-up de Fei‑Fei Li, pueden generar mundos virtuales detallados y realistas para entrenar robots, entre otros usos. Yann LeCun, ex científico jefe de Meta, también trabaja en world models. Lleva años intentando dotar a la IA de una comprensión del mundo entrenando modelos para predecir qué ocurre a continuación en un vídeo. En 2025 dejó Meta para concentrarse en este enfoque en una nueva start-up llamada Advanced Machine Intelligence Labs. Si todo sale bien, los world models podrían ser lo próximo en irrumpir.
—Will Douglas Heaven
6. Hyperscalers

¿Has oído hablar de toda la gente que dice “no, gracias, en realidad no queremos un megacentro de datos plantado en nuestro patio trasero”? Los centros de datos en cuestión (que las empresas tecnológicas quieren construir en todas partes, incluido el espacio) suelen denominarse hyperscalers: edificios gigantescos diseñados específicamente para operaciones de IA y utilizados por compañías como OpenAI y Google para crear modelos de IA cada vez más grandes y potentes. Dentro de estos edificios, los mejores chips del mundo trabajan sin descanso entrenando y ajustando modelos, y están diseñados para ser modulares y crecer según las necesidades.
Ha sido un gran año para los hyperscalers. OpenAI anunció, junto al presidente Donald Trump, su proyecto Stargate, una empresa conjunta de 500.000 millones de dólares (unos 464.850 millones de euros) para llenar el país de los centros de datos más grandes jamás construidos. Pero esto deja a casi todo el mundo preguntándose: ¿qué obtenemos nosotros a cambio? Los consumidores temen que los nuevos centros de datos aumenten sus facturas de electricidad. Estos edificios suelen tener dificultades para funcionar con energías renovables. Y, además, no suelen generar tantos puestos de trabajo. Pero bueno, quizá estos enormes edificios sin ventanas al menos puedan darle un toque melancólico y de ciencia ficción a tu comunidad.
—James O’Donnell
7. Burbuja

Las elevadas promesas de la IA están haciendo levitar la economía. Las empresas de IA están recaudando sumas de dinero impresionantes y viendo cómo sus valoraciones se disparan hasta la estratosfera. Están invirtiendo cientos de miles de millones de dólares en chips y centros de datos, financiadas cada vez más mediante deuda y acuerdos circulares que levantan cejas. Mientras tanto, las compañías que encabezan esta fiebre del oro, como OpenAI y Anthropic, podrían no obtener beneficios durante años, si es que alguna vez lo hacen. Los inversores están apostando fuerte a que la IA inaugurará una nueva era de riqueza, aunque nadie sabe realmente hasta qué punto será transformadora la tecnología.
La mayoría de las organizaciones que utilizan IA aún no están viendo resultados, y el trabajo mediocre generado con IA está por todas partes. Existe incertidumbre científica sobre si escalar los LLM conducirá a la superinteligencia o si será necesario abrir paso a nuevos avances. Pero, a diferencia de sus predecesoras en la burbuja puntocom, las empresas de IA están mostrando un fuerte crecimiento de ingresos, y algunas son incluso gigantes tecnológicos con grandes recursos, como Microsoft, Google y Meta. ¿Estallará alguna vez este sueño maníaco?
—Michelle Kim
8. «Agéntico» (agentic)

Este año, los agentes de IA estuvieron por todas partes. Cada nuevo anuncio de funciones, lanzamiento de modelos o informe de seguridad a lo largo de 2025 venía salpicado de menciones a ellos, aunque muchas empresas de IA y expertos no se ponen de acuerdo sobre qué cuenta realmente como algo verdaderamente “agéntico”, un término tan vago como parece. Y a nadie parece importarle demasiado que sea prácticamente imposible garantizar que una IA que actúa en tu nombre por toda la web haga siempre exactamente lo que se supone que debe hacer: todo indica que la IA agéntica ha llegado para quedarse, al menos en el futuro cercano. ¿Quieres vender algo? ¡Llámalo agéntico!
—Rhiannon Williams
9. Destilación

A principios de este año, DeepSeek presentó su nuevo modelo DeepSeek R1, un reasoning model de código abierto que iguala a los principales modelos occidentales pero cuesta solo una fracción de su precio. Su lanzamiento hizo que Silicon Valley entrara en pánico, ya que muchos se dieron cuenta por primera vez de que la escala descomunal y los recursos colosales no eran necesariamente la clave para crear modelos de IA de alto nivel. Las acciones de Nvidia se desplomaron un 17% al día siguiente de la publicación de R1.
La clave del éxito de R1 fue la destilación, una técnica que hace que los modelos de IA sean más eficientes. Funciona haciendo que un modelo más grande actúe como tutor de uno más pequeño: se ejecuta el modelo profesor con muchos ejemplos y se registran sus respuestas; luego se recompensa al modelo estudiante a medida que copia esas respuestas lo más fielmente posible, de modo que obtiene una versión comprimida del conocimiento del profesor.
—Caiwei Chen
10. «Adulación» (sycophancy)

A medida que personas de todo el mundo pasan cada vez más tiempo interactuando con chatbots como ChatGPT, los creadores de estos sistemas están lidiando con cómo debería ser el tono y la “personalidad” que adoptan los modelos. En abril, OpenAI admitió que no había encontrado el equilibrio adecuado entre ser útil y ser servil, y reconoció que una actualización había vuelto a GPT‑4o demasiado adulador. Que un modelo te dé la razón en todo no solo es irritante: también puede inducir a error a los usuarios reforzando sus creencias incorrectas y difundiendo desinformación. Así que considera esto un recordatorio de que debes tomarte todo (sí, absolutamente todo) lo que produzcan los LLM con una pizca de escepticismo.
—Rhiannon Williams
11. «Basura» (slop)

Si hay un término relacionado con la IA que ha escapado por completo del recinto de los nerds y ha entrado en la conciencia pública, es “slop”. La palabra en sí es antigua (piensa en comida para cerdos), pero hoy “slop” se usa comúnmente para referirse a contenido de baja calidad, producido en masa y generado por IA, a menudo optimizado para atraer tráfico en línea. Mucha gente incluso lo utiliza como abreviatura para cualquier contenido generado con IA. En el último año se ha sentido como algo ineludible: hemos estado marinados en él, desde biografías falsas hasta imágenes de “Jesús camarón”, pasando por vídeos surrealistas de híbridos humano‑animal.
Pero la gente también se divierte con ello. La flexibilidad sardónica del término ha facilitado que los usuarios de internet lo conviertan en sufijo para describir cualquier cosa sin sustancia y absurdamente mediocre: piensa en “work slop” o “friend slop”. A medida que el ciclo del hype vuelve a empezar, “slop” marca un ajuste cultural de cuentas sobre qué confiamos, qué valoramos como trabajo creativo y qué significa estar rodeados de cosas hechas para generar interacción en lugar de expresión.
—Caiwei Chen
12. Inteligencia física

¿Viste aquel vídeo hipnotizante de principios de este año en el que un robot humanoide guardaba platos en una cocina sombría y en escala de grises? Eso encapsula bastante bien la idea de la inteligencia física: el concepto de que los avances en IA pueden ayudar a los robots a moverse mejor por el mundo físico.
Es cierto que los robots han aprendido nuevas tareas más rápido que nunca, desde quirófanos hasta almacenes. Las empresas de coches autónomos también han visto mejoras en la forma en que simulan las carreteras. Dicho esto, sigue siendo sensato mantener cierto escepticismo sobre si la IA ha revolucionado realmente el campo. Considera, por ejemplo, que muchos robots anunciados como mayordomos domésticos realizan la mayoría de sus tareas gracias a operadores remotos en Filipinas.
El camino por delante para la inteligencia física también promete ser peculiar. Los modelos de lenguaje grandes se entrenan con texto, que abunda en internet; pero los robots aprenden más de vídeos de personas haciendo cosas. Por eso, en septiembre, la empresa de robótica Figure sugirió que pagaría a personas por grabarse en sus apartamentos haciendo tareas domésticas. ¿Te apuntarías?
—James O’Donnell
13. «Uso legítimo» (fair use)

Los modelos de IA se entrenan devorando millones de palabras e imágenes en toda la web, incluyendo obras con derechos de autor de artistas y escritores. Las empresas de IA sostienen que esto constituye “uso legítimo” (fair use), una doctrina legal que permite utilizar material protegido sin permiso si se transforma en algo nuevo que no compite con el original. Los tribunales están empezando a pronunciarse. En junio, se dictaminó que el entrenamiento de Anthropic de su modelo Claude con una biblioteca de libros constituía uso legítimo porque la tecnología era “extraordinariamente transformadora”.
Ese mismo mes, Meta obtuvo una victoria similar, pero solo porque los autores no pudieron demostrar que el festín literario de la compañía afectara a sus ingresos. Mientras se intensifican las batallas por los derechos de autor, algunos creadores empiezan a beneficiarse de este festín. En diciembre, Disney firmó un llamativo acuerdo con OpenAI para permitir que los usuarios de Sora, la plataforma de vídeo con IA, generen vídeos con más de 200 personajes de las franquicias de Disney. Mientras tanto, gobiernos de todo el mundo están reescribiendo las reglas de copyright para estas máquinas devoradoras de contenido. ¿Es entrenar IA con obras protegidas un caso de uso legítimo? Como toda cuestión legal multimillonaria, depende.
—Michelle Kim
14. GEO

Hace apenas unos años, toda una industria se construyó alrededor de ayudar a que las páginas web alcanzaran posiciones altas en los resultados de búsqueda (bueno, en los de Google). Ahora, la optimización para motores de búsqueda (SEO, search engine optimization) está dando paso a la GEO (generative engine optimization), ya que el auge de la IA obliga a marcas y empresas a ponerse las pilas para maximizar su visibilidad dentro de la propia IA, ya sea en resultados de búsqueda mejorados con IA, como los AI Overviews de Google, o dentro de las respuestas generadas por LLM. No es de extrañar que estén inquietos. Ya sabemos que los medios de comunicación han sufrido una caída colosal en el tráfico web proveniente de buscadores, y las empresas de IA están trabajando en formas de eliminar intermediarios y permitir que los usuarios visiten sitios directamente desde sus plataformas. Toca adaptarse o morir.
—Rhiannon Williams





