Modelos

DeepSeek V4 llega un año después del shock: el modelo más grande open source de la historia, entrenado sin Nvidia

DeepSeek lanza V4 Pro y V4 Flash con 1,6 billones de parámetros, ventana de 1 millón de tokens y rendimiento comparable a GPT-5.4. Primera versión entrenada sobre chips Huawei, sin Nvidia.

Gonzalo
DeepSeek

En enero de 2025, DeepSeek publicó R1 y el mundo de la IA perdió la compostura. Un modelo entrenado con un presupuesto que se decía inferior a seis millones de dólares, en chips de una generación anterior a los mejores de Nvidia, que competía directamente con los mejores modelos de OpenAI y Anthropic. Marc Andreessen lo llamó «el momento Sputnik de la IA». Las acciones de Nvidia cayeron casi un 17% en un solo día.

Un año después, DeepSeek ha vuelto. Y esta vez el modelo es mayor, más barato y, por primera vez, no necesita a Nvidia en absoluto.

Qué es DeepSeek V4 y por qué el tamaño importa esta vez

DeepSeek ha lanzado dos versiones preview de su nuevo modelo: V4 Flash y V4 Pro. Ambos son modelos de mezcla de expertos con ventanas de contexto de un millón de tokens, suficiente para incluir bases de código completas o documentos enteros en un solo prompt. El modelo Pro tiene un total de 1,6 billones de parámetros con 49.000 millones activos, lo que lo convierte en el modelo open source más grande disponible, superando al Kimi K 2.6 de Moonshot AI con 1,1 billones y más del doble que el DeepSeek V3.2 anterior con 671.000 millones. Computerworld

El número de parámetros activos —49.000 millones sobre 1,6 billones totales— es la clave de su eficiencia. La arquitectura de mezcla de expertos activa solo una fracción del modelo en cada tarea, lo que reduce drásticamente el coste de inferencia sin sacrificar rendimiento en las tareas para las que está optimizado.

El rendimiento: casi en la frontera, no del todo

DeepSeek no oculta la brecha que todavía existe. El modelo parece quedarse ligeramente por detrás de los modelos frontera en pruebas de conocimiento, específicamente GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google. Este retraso sugiere una trayectoria de desarrollo que va aproximadamente tres a seis meses por detrás de los modelos frontera de última generación. Computerworld

En lo que sí compite directamente: en los principales benchmarks, según resultados publicados por la empresa, DeepSeek V4-Pro compite con los modelos cerrados líderes, igualando el rendimiento de Claude Opus 4.6 de Anthropic, GPT-5.4 de OpenAI y Gemini 3.1 de Google. Comparado con otros modelos open source, como el Qwen-3.5 de Alibaba o el GLM-5.1, DeepSeek V4 los supera a todos en programación, matemáticas y problemas STEM, convirtiéndolo en uno de los modelos open source más potentes jamás lanzados. Microsoft Community Hub

El dato que más importa: el precio

V4 es significativamente más asequible que cualquier modelo frontera disponible actualmente. El modelo V4 Flash cuesta 0,14 dólares por millón de tokens de entrada y 0,28 por millón de tokens de salida, por debajo de GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5. El modelo V4 Pro, por su parte, cuesta 0,145 dólares por millón de tokens de entrada y 3,48 por millón de salida, también por debajo de Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 y GPT-5.4. Computerworld

Un modelo que compite con los mejores modelos cerrados del mundo a una fracción de su precio y con código abierto que cualquiera puede descargar y modificar. Ese es el argumento central de DeepSeek, y en V4 lo sostiene con más solidez que en cualquier versión anterior.

La novedad geopolítica más importante: adiós a Nvidia

Este es el detalle que más atención ha generado fuera de los benchmarks. Para satisfacer las necesidades computacionales de V4, DeepSeek se asoció con el gigante tecnológico chino Huawei, que declaró en un comunicado que apoya a la startup de IA con su tecnología «Supernode», combinando grandes clusters de sus chips «Ascend 950» para proporcionar mayor potencia de computación. National Today

Wei Sun, analista principal de Counterpoint Research, destacó el hecho de que V4 funciona sobre chips domésticos de Huawei y Cambricon, otro fabricante de chips de IA chino, en comparación con R1, que fue entrenado con hardware de Nvidia. «Permite que los sistemas de IA sean construidos y desplegados sin depender únicamente de Nvidia, por lo que V4 podría tener en última instancia un impacto incluso mayor que R1, acelerando la adopción doméstica y contribuyendo al desarrollo global de la IA en general», señaló. National Today

Las restricciones a la exportación de chips avanzados que Washington ha impuesto a China durante los últimos años perseguían precisamente este objetivo: hacer que el desarrollo de IA de frontera en China fuera más lento, más caro y más dependiente de tecnología americana. V4 es la primera evidencia pública de que esa estrategia tiene límites reales.

Las acusaciones que acompañan el lanzamiento

El contexto político del lanzamiento no es neutral. En febrero, Anthropic acusó a DeepSeek y otros dos laboratorios de IA con sede en China de «campañas a escala industrial» para «extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos» mediante una técnica llamada destilación, que implica entrenar un modelo menos capaz sobre las salidas de uno más fuerte. OpenAI formuló acusaciones similares en una carta a legisladores estadounidenses. Esta semana, Michael Kratsios, asesor científico y tecnológico jefe del presidente Donald Trump, también acusó a empresas tecnológicas extranjeras «radicadas principalmente en China» de destilar los principales sistemas de IA estadounidenses. The American Bazaar

La embajada china en Washington respondió describiendo las acusaciones como «supresión injustificada de empresas chinas por parte de EE.UU.» The American Bazaar

El debate sobre si DeepSeek construye sobre los modelos de sus competidores o los desarrolla de forma independiente no está resuelto ni es probable que lo esté pronto. Lo que sí es verificable es el resultado: un modelo open source con rendimiento de frontera, entrenado sobre hardware chino, disponible gratis para cualquier desarrollador del mundo. Eso tiene consecuencias independientemente de cómo se llegó hasta ahí.

Fuentes

EtiquetasDeepSeekOpen source ChinaChipsHuaweiV4

Seguir leyendo