El vie es, la empresa china de IA DeepSeek publicó un avance de V4, su esperado nuevo modelo insignia. En particular, el modelo puede procesar prompts mucho más largos que su generación anterior, gracias a un nuevo diseño que le ayuda a manejar grandes cantidades de texto de forma más eficiente. Al igual que los modelos anteriores de DeepSeek, V4 es de código abierto, lo que significa que está disponible para que cualquiera pueda descargarlo, usarlo y modificarlo.
V4 supone el lanzamiento más significativo de DeepSeek desde R1, el modelo de razonamiento que lanzó en enero de 2025. R1, que fue entrenado con recursos computacionales limitados, asombró a la industria global de la IA con su sólido rendimiento y eficiencia, convirtiendo a DeepSeek de un equipo de investigación poco conocido en la empresa de IA más conocida de China, casi de la noche a la mañana. También ayudó a desencadenar una ola de lanzamientos de modelos de pesos abiertos de otras empresas chinas de IA.
DeepSeek ha mantenido un perfil relativamente bajo desde entonces; pero a principios de este mes, efectivamente adelantó el lanzamiento de V4 al añadir los modos “expert” y “flash” a la versión en línea de su modelo, lo que provocó especulaciones de que las actualizaciones estaban ligadas a un lanzamiento mayor y próximo.
Aunque la empresa se ha consolidado como un potente símbolo de las ambiciones de IA de China, su importante reto o a los modelos de vanguardia se produce tras meses de escrutinio —incluyendo importantes salidas de personal, retrasos en el lanzamiento de modelos anteriores, y el creciente escrutinio tanto de EE. UU. como de los gobie os chinos.
Entonces, ¿sacudirá V4 el campo de la IA como lo hizo R1? Casi con toda seguridad no, pero a continuación se exponen tres razones importantes por las que este lanzamiento es relevante.
1. Abre nuevos caminos para un modelo de código abierto.
Al igual que su predecesor R1, DeepSeek afirma que el rendimiento de V4 rivaliza con el de los mejores modelos disponibles por una fracción del precio. Esto es una excelente noticia para los desarrolladores y para las empresas que utilizan esta tecnología, porque significa que pueden acceder a capacidades de IA de vanguardia en sus propios términos y sin preocuparse por los costes desorbitados.
El nuevo modelo se presenta en dos versiones, ambas disponibles en la web de DeepSeek y en su aplicación, con acceso a la API también abierto a desarrolladores. V4-Pro es un modelo más grande diseñado para la codificación y tareas complejas de agentes, y V4-Flash es una versión más pequeña concebida para ser más rápida y económica de ejecutar. Ambas versiones ofrecen modos de razonamiento, en los que el modelo puede analizar cuidadosamente el prompt de un usuario y mostrar cada paso a medida que resuelve el problema.
Para V4-Pro, DeepSeek cobra 1,74 $ por millón de tokens de entrada y 3,48 $ por millón de tokens de salida, una fracción del coste de modelos comparables de OpenAI y Anthropic. V4-Flash es aún más barato, con aproximadamente 0,14 $ por millón de tokens de entrada y alrededor de 0,28 $ por millón de tokens de salida, lo que lo convierte en uno de los modelos de primer nivel más económicos disponibles. Esto lo haría un modelo muy atractivo para desarrollar aplicaciones.
En términos de rendimiento, V4 es, quizás como era de esperar, un gran salto con respecto a R1, y parece ser una alte ativa sólida a casi todos los últimos grandes modelos de IA. En los principales benchmarks, según los resultados compartidos por la compañía, DeepSeek V4-Pro compite con modelos líderes de código cerrado, igualando el rendimiento de Claude-Opus-4.6 de Anthropic, GPT-5.4 de OpenAI y Gemini-3.1 de Google. Y en comparación con otros modelos de código abierto, como Qwen-3.5 de Alibaba o GLM-5.1 de Z.ai, DeepSeek V4 los supera a todos en codificación, matemáticas y problemas STEM, lo que lo convierte en uno de los modelos de código abierto más potentes jamás lanzados.
DeepSeek también afirma que V4-Pro se sitúa ahora entre los modelos de código abierto más potentes en los benchmarks para tareas de codificación agéntica y rinde bien en otras pruebas que miden la capacidad para resolver problemas de varios pasos. Su capacidad de escritura y conocimiento del mundo también lidera el sector, según los resultados de benchmarking compartidos por la compañía.
En un informe técnico publicado junto al modelo, DeepSeek compartió los resultados de una encuesta inte a realizada a 85 desarrolladores experimentados: Más del 90 % incluyó V4-Pro entre sus modelos preferidos para tareas de codificación.
DeepSeek afirma haber optimizado V4 específicamente para marcos de agente populares como Claude Code, OpenClaw y CodeBuddy.
2. Aporta un nuevo enfoque a la eficiencia de la memoria.
Una de las innovaciones clave de V4 es su amplia ventana de contexto —la cantidad de texto que el modelo puede procesar a la vez. Ambas versiones pueden gestionar 1 millón de tokens, lo cual es suficientemente grande para albergar los tres volúmenes de El Señor de los Anillos y El Hobbit combinados. La compañía afirma que este tamaño de ventana de contexto es ahora el predeterminado en todos los servicios de DeepSeek y coincide con lo que ofrecen las versiones de vanguardia de modelos como Gemini y Claude.
Pero es importante saber no solo que DeepSeek ha dado este salto, sino cómo lo ha hecho. La versión V4 introduce cambios arquitectónicos significativos en los modelos anteriores de la compañía, especialmente en el mecanismo de atención, que es la característica de los modelos de IA que les ayuda a comprender cada parte de un prompt en relación con el resto. A medida que el texto del prompt se alarga, estas comparaciones se vuelven mucho más costosas, convirtiendo la atención en uno de los principales cuellos de botella para los modelos de contexto largo.
La innovación de DeepSeek consistió en hacer que el modelo fuera más selectivo con aquello a lo que presta atención. En lugar de tratar todo el texto anterior como igualmente importante, V4 comprime la información antigua y se centra en las partes con más probabilidades de ser relevantes en el momento actual, al tiempo que mantiene el texto cercano íntegro para no pasar por alto detalles importantes.
DeepSeek afirma que esto reduce drásticamente el coste de utilizar un contexto largo. En un contexto de un millón de tokens, V4-Pro utiliza solo el 27% de la potencia de cálculo requerida por su modelo anterior, V3.2, mientras que reduce el uso de memoria al 10%. La reducción en V4-Flash es aún mayor, utilizando solo el 10% de la potencia de cálculo y el 7% de la memoria. En la práctica, esto podría abaratar la construcción de herramientas que necesiten trabajar con enormes cantidades de material, como un asistente de codificación de IA que pueda leer una base de código completa o un agente de investigación que pueda analizar un largo archivo de documentos sin olvidar constantemente lo que vino antes.
El interés de DeepSeek en las ventanas de contexto largas no empezó con V4. Durante el último año y medio, la empresa ha publicado discretamente una serie de artículos sobre cómo los modelos de IA “recuerdan” información, experimentando con compresión y técnicas matemáticas para ampliar lo que los modelos de IA podían manejar de forma realista.
3. Supone los primeros pasos en el arduo camino para desvincularse de Nvidia.
V4 es el primer modelo de DeepSeek optimizado para chips chinos nacionales, como el Ascend de Huawei, un movimiento que ha convertido el lanzamiento en una especie de prueba para determinar si la industria de IA nacional de China puede empezar a reducir su dependencia del gigante estadounidense de chips Nvidia.
Esto era ampliamente esperado, ya que The Information informó a principios de este mes que DeepSeek no dio a los fabricantes de chips estadounidenses como Nvidia y AMD acceso anticipado a V4, aunque el acceso anticipado es común para permitir que los fabricantes de chips optimicen la compatibilidad con el nuevo modelo antes de un lanzamiento. En su lugar, según los informes, la compañía dio acceso anticipado solo a los fabricantes de chips chinos.
El vie es, Huawei anunció que sus productos supe odo Ascend, basados en la serie Ascend 950, serían compatibles con DeepSeek V4. Esto significa que las empresas y los particulares que deseen ejecutar su propia versión modificada de DeepSeek V4 podrán utilizar fácilmente los chips de Huawei.
Reuters ya había informado que funcionarios del Gobie o chino recomendaron que DeepSeek integrara chips de Huawei en su proceso de entrenamiento. Y esta presión se inscribe en una pauta más amplia de la política industrial de China: a menudo se insta a los sectores estratégicos, y en ocasiones se les exige de facto, a alinearse con los objetivos nacionales de autosuficiencia. Pero existe una urgencia particular en lo que respecta a la IA. Desde 2022, los controles de exportación de EE. UU. han privado a las empresas chinas de los chips más potentes de Nvidia, y posteriormente también restringieron el acceso a versiones degradadas para el mercado chino. La respuesta de Pekín ha sido acelerar el impulso para una pila de IA nacional, desde chips hasta marcos de software y centros de datos.
Las autoridades chinas, según informes, han estado impulsando a los centros de datos y a los proyectos de computación pública a utilizar más chips nacionales, incluso mediante supuestas prohibiciones a los chips de fabricación extranjera, cuotas de abastecimiento y requisitos para emparejar chips de Nvidia con alte ativas chinas de empresas como Huawei y Cambricon.
Aun así, reemplazar a Nvidia no es tan simple como intercambiar un chip por otro. La ventaja de Nvidia no reside solo en sus chips, sino en el ecosistema de software que los desarrolladores han pasado años construyendo a su alrededor. Pasar a los chips Ascend de Huawei significa adaptar el código del modelo, reconstruir las herramientas y demostrar que los sistemas construidos en to o a esos chips son lo suficientemente estables para un uso serio.
Para ser claros, DeepSeek no parece haber superado por completo a Nvidia. El informe técnico de la compañía revela que está utilizando chips chinos para ejecutar el modelo para la inferencia, o cuando se le pide al modelo que complete una tarea. Pero Liu Zhiyuan, profesor de informática en la Universidad de Tsinghua, dijo a MIT Technology Review que DeepSeek parece haber adaptado solo una parte del proceso de entrenamiento de V4 para chips chinos. El informe no dice si algunas características clave de contexto largo fueron adaptadas a chips nacionales, por lo que Liu afirma que V4 aún podría haberse entrenado principalmente con chips de Nvidia. Múltiples fuentes que hablaron bajo condición de anonimato, debido a la sensibilidad política en to o a estas cuestiones, dijeron a MIT Technology Review que los chips chinos todavía no rinden tan bien como los chips de Nvidia, pero son más adecuados para la inferencia que para el entrenamiento.
DeepSeek también está vinculando los costes futuros de V4 a esta transición de hardware. La compañía afirma que los precios de V4-Pro podrían reducirse drásticamente una vez que los supe odos Ascend 950 de Huawei comiencen a distribuirse a gran escala en la segunda mitad de este año.
Si eso tiene éxito, V4 podría ser una señal temprana de que China está construyendo con éxito una infraestructura de IA paralela.

