
En una industria en constante cambio, arriesgarse a predecir lo que viene puede parecer temerario. ¿Burbuja de IA? ¿Qué burbuja? Aun así, llevamos años haciéndolo… y vamos a hacerlo otra vez.
¿Cómo nos fue la última vez? Apostamos por cinco tendencias clave para 2025, entre ellas lo que llamamos generative virtual playgrounds, también conocidos como world models (acierto: desde Genie 3 de Google DeepMind hasta Marble de World Labs, la tecnología para generar entornos virtuales realistas sobre la marcha no deja de mejorar); los llamados reasoning models (acierto: se han convertido en el nuevo paradigma para resolver problemas complejos); un auge de la IA aplicada a la ciencia (acierto: OpenAI sigue los pasos de Google DeepMind creando un equipo dedicado a ello); empresas de IA más cercanas a la seguridad nacional (acierto: OpenAI cambió su postura sobre el uso militar y firmó un acuerdo con la startup Anduril para ayudar a derribar drones en el campo de batalla); y competencia real para Nvidia (acierto, en parte: China apuesta fuerte por chips avanzados de IA, aunque el dominio de Nvidia sigue siendo difícil de desafiar… por ahora).
¿Y qué viene en 2026? Aquí van nuestras grandes apuestas para los próximos 12 meses.
Más productos de Silicon Valley se construirán sobre LLM chinos
El último año fue decisivo para los modelos open source chinos. En enero, DeepSeek lanzó R1, su modelo de razonamiento abierto, y sorprendió al mundo con lo que una empresa relativamente pequeña podía lograr con recursos limitados. A finales de año, la expresión «momento DeepSeek» se había convertido en referencia habitual entre emprendedores y desarrolladores de IA: un punto de aspiración.
Fue la primera vez que muchos se dieron cuenta de que podían acceder a un rendimiento de primer nivel sin pasar por OpenAI, Anthropic o Google.
Los modelos de open weight como R1 permiten descargar el modelo y ejecutarlo en hardware propio. Además, son más personalizables, gracias a técnicas como distillation y pruning. Esto contrasta con los modelos «cerrados» de las grandes firmas estadounidenses, donde las capacidades centrales son propietarias y el acceso suele ser costoso.
Como resultado, los modelos chinos se han convertido en una opción fácil. Informes de CNBC y Bloomberg indican que las startups en EE UU reconocen y aceptan cada vez más lo que pueden ofrecer.
Uno de los grupos más populares es Qwen, creado por Alibaba, la empresa detrás de Taobao, la mayor plataforma de comercio electrónico en China. Solo Qwen2.5-1.5B-Instruct acumula 8,85 millones de descargas, lo que lo convierte en uno de los LLM preentrenados más utilizados. La familia Qwen abarca una amplia gama de tamaños y versiones especializadas para matemáticas, programación, visión y seguimiento de instrucciones, una diversidad que la ha consolidado como potencia del open source.
Otras firmas chinas que antes dudaban en apostar por el código abierto siguen el modelo de DeepSeek. Destacan GLM, de Zhipu, y Kimi, de Moonshot. La competencia también ha empujado a las empresas estadounidenses a abrirse, al menos parcialmente. En agosto, OpenAI lanzó su primer modelo open source. En noviembre, el Allen Institute for AI, una organización sin ánimo de lucro con sede en Seattle, presentó su último modelo abierto: Olmo 3.
Incluso en medio de la creciente tensión entre EE UU y China, la apuesta casi unánime de las firmas chinas por el código abierto les ha granjeado buena reputación en la comunidad global de IA y una ventaja de confianza a largo plazo. En 2026, espera ver más aplicaciones de Silicon Valley funcionando sobre modelos chinos, y observa cómo la brecha entre lanzamientos chinos y occidentales sigue reduciéndose: de meses a semanas, y a veces menos.
—Caiwei Chen
EE UU afrontará otro año de de tira y afloja regulatorio
La batalla por regular la inteligencia artificial se encamina a un choque frontal. El 11 de diciembre, el presidente Donald Trump firmó una orden ejecutiva para neutralizar las leyes estatales sobre IA, un movimiento que busca atar de manos a los estados en su intento de controlar una industria en expansión. En 2026, prepárate para más guerra política. La Casa Blanca y los estados se disputarán quién tiene la autoridad para gobernar esta tecnología, mientras las empresas de IA libran una intensa campaña de presión para frenar las regulaciones, armadas con el argumento de que un mosaico de leyes estatales sofocaría la innovación y pondría a EE UU en desventaja frente a China en la carrera por la IA.
Con la orden ejecutiva de Trump, los estados temen ser demandados o perder financiación federal si desafían su visión de regulación ligera. Grandes estados demócratas como California, que acaba de aprobar la primera ley pionera del país en materia de IA que obliga a las compañías a publicar pruebas de seguridad de sus modelos, llevarán la pelea a los tribunales, alegando que solo el Congreso puede invalidar leyes estatales. Pero aquellos que no puedan permitirse perder fondos federales, o teman quedar en la mira de Trump, podrían ceder. Aun así, veremos más legislación estatal en temas candentes, especialmente donde la orden presidencial deja margen para legislar. Con chatbots acusados de inducir suicidios adolescentes y centros de datos devorando cada vez más energía, la presión pública para imponer límites seguirá creciendo.
En lugar de leyes estatales, Trump promete trabajar con el Congreso para aprobar una ley federal sobre IA. No cuentes con ello. El Congreso fracasó dos veces en 2025 al intentar aprobar una moratoria sobre leyes estatales, y no hay señales de que este año logre sacar adelante su propio proyecto.
Empresas como OpenAI y Meta seguirán desplegando poderosos super-PACs para respaldar a candidatos que apoyen su agenda y atacar a quienes se interpongan. Del otro lado, los super-PACs que defienden la regulación de la IA también reforzarán sus arcas para contraatacar. Observa cómo se enfrentan en las elecciones legislativas del próximo año.
Cuanto más avance la IA, más intensa será la lucha por controlar su rumbo. Y 2026 será otro año de tira y afloja regulatorio… sin final a la vista.
—Michelle Kim
Los chatbots cambiarán la forma en que compramos
Imagina un mundo en el que tienes un asistente personal de compras disponible las 24 horas: un experto capaz de recomendarte al instante el regalo perfecto para ese amigo difícil, rastrear la web para elaborar una lista de las mejores estanterías dentro de tu presupuesto o analizar las ventajas y desventajas de un electrodoméstico, compararlo con su competencia y encontrar la mejor oferta. Y, cuando estés conforme, encargarse también de la compra y la entrega.
Ese comprador ultracompetente no es humano: es un chatbot. Y no se trata de una predicción lejana. Salesforce anticipa que la IA impulsará 263.000 millones de dólares (más de 225.400 millones de euros) en compras online esta temporada navideña, lo que representa el 21% de todos los pedidos. Los expertos apuestan a que el comercio potenciado por IA será un negocio aún mayor en los próximos años. Para 2030, entre 3 y 5 billones de dólares (entre 2,5 y 4,3 billones de euros) anuales provendrán del llamado agentic commerce, según un estudio de la consultora McKinsey.
No sorprende que las empresas de IA ya estén invirtiendo para que comprar a través de sus plataformas sea lo más fluido posible. La app Gemini de Google puede acceder al potente conjunto de datos Shopping Graph de la empresa sobre productos y vendedores, e incluso puede utilizar su tecnología de agentes para llamar a tiendas en tu nombre. En noviembre, OpenAI anunció una función de compras en ChatGPT capaz de crear guías de compra en segundos, y cerró acuerdos con Walmart, Target y Etsy para permitir compras directas dentro de las conversaciones con el chatbot.
Espera muchos más acuerdos de este tipo en el próximo año, a medida que el tiempo que los consumidores pasan chateando con IA siga aumentando y el tráfico web procedente de buscadores y redes sociales continúe desplomándose.
—Rhiannon Williams
Un LLM hará un descubrimiento importante
Voy a cubrirme desde el principio: no es ningún secreto que los modelos de lenguaje generan mucho ruido. Salvo por pura suerte, no descubrirán nada por sí solos. Pero los LLM tienen potencial para ampliar los límites del conocimiento humano.
Tuvimos un adelanto en mayo, cuando Google DeepMind presentó AlphaEvolve, un sistema que utilizó el LLM Gemini para idear nuevos algoritmos capaces de resolver problemas sin solución conocida. La clave fue combinar Gemini con un algoritmo evolutivo que verificaba sus propuestas, seleccionaba las mejores y las devolvía al modelo para perfeccionarlas.
Google DeepMind empleó AlphaEvolve para encontrar métodos más eficientes de gestionar el consumo energético en centros de datos y chips TPU de Google. Son avances significativos, aunque no revolucionarios. Por ahora. Los investigadores ya están explorando hasta dónde puede llegar este enfoque.
Otros se han apresurado a seguir el camino. Una semana después del lanzamiento, el ingeniero Asankhaya Sharma presentó OpenEvolve, una versión open source de la herramienta. En septiembre, la firma japonesa Sakana AI lanzó SinkaEvolve. Y en noviembre, un equipo de investigadores de EE UU y China presentó AlphaResearch, que asegura mejorar una de las soluciones matemáticas de AlphaEvolve que ya superaba el rendimiento humano.
También hay enfoques alternativos. Por ejemplo, investigadores de la Universidad de Colorado Denver intentan hacer que los LLM sean más creativos ajustando el funcionamiento de los llamados reasoning models. Se inspiran en lo que saben los científicos cognitivos sobre el pensamiento creativo humano para empujar a los modelos hacia soluciones menos convencionales.
Cientos de empresas invierten miles de millones para lograr que la IA resuelva problemas matemáticos sin resolver, acelere computadoras y descubra nuevos fármacos y materiales. Ahora que AlphaEvolve ha mostrado lo que es posible, espera que la actividad en este frente se dispare.
—Will Douglas Heaven
Las batallas legales se intensifican
Durante un tiempo, las demandas contra empresas de IA fueron bastante predecibles: titulares de derechos, como autores o músicos, denunciaban a compañías que entrenaban modelos con sus obras, y los tribunales solían fallar a favor de los gigantes tecnológicos. Las próximas disputas legales serán mucho más complejas.
El conflicto gira en torno a preguntas espinosas y aún sin resolver: ¿pueden responsabilizarse las empresas de IA por lo que sus chatbots incitan a hacer, como cuando ayudan a adolescentes a planificar suicidios? Si un chatbot difunde información claramente falsa sobre ti, ¿puede demandarse a su creador por difamación? Y si las compañías pierden estos casos, ¿rechazarán las aseguradoras cubrirlas como clientes?
En 2026 empezaremos a ver respuestas, en parte porque algunos casos emblemáticos llegarán a juicio (la familia de un adolescente que murió por suicidio llevará a OpenAI ante los tribunales en noviembre).
Al mismo tiempo, el panorama legal se complicará aún más por la orden ejecutiva firmada por Trump en diciembre (consulta el artículo de Michelle más arriba para más detalles sobre la tormenta regulatoria que se avecina).
Sea como sea, veremos una avalancha de demandas en todas direcciones (sin contar que algunos jueces ya recurren a la IA para gestionar el aluvión).
—James O’Donnell





