Esta historia apareció originalmente en The Algorithm, nuestra newsletter semanal sobre IA. Para recibir historias como esta primero en tu bandeja de entrada, suscríbete aquí.
En una industria que no se detiene, el AI Index de Stanford, un compendio anual de resultados y tendencias clave, es una oportunidad para tomar aliento. (Es una maratón, no un esprint, al fin y al cabo.)
El informe de este año, publicado hoy, está repleto de estadísticas impactantes. Gran parte de su valor reside en contar con cifras que respalden intuiciones que quizás ya se tengan, como la sensación de que EE. UU. está apostando más fuerte por la IA que cualquier otro país: alberga 5.427 centros de datos (y la cifra sigue creciendo). Esto supone más de 10 veces la cantidad de cualquier otro país.
También hay un recordatorio de que la cadena de suministro de hardware en la que se basa la industria de la IA tiene algunos cuellos de botella importantes. Quizás el hecho más destacable es el siguiente: "Una sola empresa, TSMC, fabrica casi todos los chips de IA líderes, lo que hace que la cadena de suministro global de hardware de IA dependa de una única fundición en Taiwán". ¡Una única fundición! Eso es una locura.
Pero la principal conclusión que saco del Índice de IA 2026 es que el estado actual de la IA está plagado de inconsistencias. Como mi colega Michelle Kim lo expresó hoy en su artículo sobre el informe: "Si sigues las noticias sobre IA, probablemente te sientas abrumado por las contradicciones. La IA es una fiebre del oro. La IA es una burbuja. La IA está quitando tu trabajo. La IA ni siquiera sabe leer un reloj." (El informe de Stanford señala que el principal modelo de razonamiento de Google DeepMind, Gemini Deep Think, consiguió una medalla de oro en la Olimpiada Inte acional de Matemáticas, pero es incapaz de leer relojes analógicos la mitad de las veces.)
Michelle hace un gran trabajo cubriendo los puntos clave del informe. Pero yo quería ahondar en una pregunta que no me puedo quitar de la cabeza. ¿Por qué es tan difícil saber exactamente qué está pasando en la IA ahora mismo?
La mayor brecha parece darse entre expertos y no expertos. «Los expertos en IA y el público general ven la trayectoria de la tecnología de forma muy diferente», escriben los autores del Índice de IA. «Al evaluar el impacto de la IA en los empleos, el 73% de los expertos estadounidenses son optimistas, en comparación con solo el 23% del público, una brecha de 50 puntos porcentuales. Se observan divisiones similares con respecto a la economía y la atención médica».
Esa es una brecha enorme. ¿Qué está pasando? ¿Qué saben los expertos que el público desconoce? (Por «expertos» nos referimos aquí a investigadores con sede en EE. UU. que participaron en conferencias de IA en 2023 y 2024.)
Sospecho que parte de lo que está ocurriendo es que expertos y no expertos basan sus puntos de vista en experiencias muy diferentes. «El grado en que la IA te asombra está perfectamente correlacionado con cuánto usas la IA para codificar», publicó un desarrollador de software en X el otro día. Quizás se haya dicho con ironía, pero sin duda hay algo de cierto en ello.
Los últimos modelos de los principales laboratorios son ahora mejores que nunca a la hora de producir código. Dado que las tareas técnicas como la programación tienen resultados correctos o incorrectos, es más fácil entrenar modelos para realizarlas, en comparación con tareas que son más abiertas. Es más, los modelos que pueden programar están demostrando ser rentables, por lo que los creadores de modelos están invirtiendo recursos en mejorarlos.
Esto significa que las personas que utilizan esas herramientas para codificación o para otros trabajos técnicos están experimentando esta tecnología en su máximo esplendor. Fuera de esos casos de uso, la situación es más dispar. Los LLM siguen cometiendo errores absurdos. Este fenómeno se ha conocido como la «frontera irregular»: los modelos son muy buenos haciendo algunas cosas y menos buenos en otras.
El influyente investigador de IA Andrej Karpathy también compartió algunas reflexiones. «A juzgar por mi [cronología], hay una brecha creciente en la comprensión de la capacidad de la IA», escribió en respuesta a esa publicación de X. Señaló que los usuarios avanzados (es decir: personas que utilizan los LLM para codificación, matemáticas o investigación) no solo se mantienen al día con los modelos más recientes, sino que a menudo pagan 200 dólares al mes por las mejores versiones. «Las mejoras recientes en estos dominios en lo que va de año han sido absolutamente asombrosas», continuó.
Dado que los LLM siguen mejorando a gran velocidad, quien paga por usar Claude Code estará, en efecto, utilizando una tecnología diferente de quien intentó usar la versión gratuita de Claude para planificar una boda hace seis meses. Ambos grupos están hablando en planos distintos.
¿Dónde nos deja esto? Creo que hay dos realidades. Sí, la IA es mucho mejor de lo que mucha gente se da cuenta. Y sí, sigue siendo bastante mala en muchas cosas que importan a mucha gente (y puede que siga siéndolo así). Cualquiera que haga apuestas sobre el futuro en uno u otro sentido debería tenerlo en cuenta.

