DeepSeek v4
DeepSeek v4Beta
  • Características
  • Noticias y Filtraciones
  • Zona de pruebas
  • FAQ
  1. Inicio
  2. Noticias de DeepSeek
  3. ¡DeepSeek V4 de Código Abierto es Inminente! La base de código de GitHub revela 'Model1' como la Estrella del Festival de Primavera
¡DeepSeek V4 de Código Abierto es Inminente! La base de código de GitHub revela 'Model1' como la Estrella del Festival de Primavera
2026/01/21

¡DeepSeek V4 de Código Abierto es Inminente! La base de código de GitHub revela 'Model1' como la Estrella del Festival de Primavera

Share:
La grandeza de la comunidad de código abierto radica en el hecho de que ninguna actualización importante escapa a los agudos ojos de los desarrolladores. Justo cuando DeepSeek-R1 celebra su primer aniversario de código abierto, han surgido silenciosamente rastros del modelo insignia de próxima generación en el repositorio de GitHub.

¡DeepSeek V4 de Código Abierto es Inminente!

El 21 de enero de 2026, la comunidad tecnológica descubrió una pista clave en la biblioteca de optimización FlashMLA de DeepSeek: un nuevo identificador de modelo llamado "Model1" apareció en recientes confirmaciones de código (commits). Estos commits abarcan múltiples archivos y mencionan a Model1 junto al modelo actual V3.2, indicando claramente que esta es una nueva rama separada.

Este descubrimiento coincide con un informe exclusivo del medio tecnológico The Information a principios de este mes: DeepSeek se está preparando intensamente para lanzar su modelo insignia de próxima generación, con nombre en código V4, durante el Año Nuevo Lunar a mediados de febrero. Desde las pistas en la comunidad de código abierto hasta la verificación cruzada por medios autorizados, la especulación de que Model1 es V4 es casi una conclusión inevitable.

Un tributo técnico por el primer aniversario del Código Abierto

Hace exactamente un año, el lanzamiento de DeepSeek-R1 abrió una nueva era de LLMs de código abierto y se convirtió en el modelo con más "me gusta" en la plataforma Hugging Face. Ahora, en el primer aniversario del lanzamiento de código abierto de R1, el código para V4 ha aparecido silenciosamente, continuando el compromiso de DeepSeek con el campo del código abierto.

A diferencia de R1, que se centró en capacidades de razonamiento, se espera que V4 traiga actualizaciones arquitectónicas integrales. Según información filtrada, V4 tiene un total de 671 mil millones de parámetros, adoptando una arquitectura de Mezcla de Expertos (MoE) y tecnología de Hiperconexión Restringida por Variedad (mHC), siendo la adición del módulo de memoria Engram potencialmente su mayor punto destacado.

La comunidad tecnológica está prestando mucha atención a las actualizaciones en el repositorio DeepSeek FlashMLA en GitHub, ya que cada commit podría revelar más detalles técnicos sobre V4. De los registros de commit actuales, los ingenieros de DeepSeek están optimizando intensamente los mecanismos de atención dispersa y el soporte de inferencia FP8, todos los cuales son preparativos para el despliegue a gran escala de V4.

Engram: Un "Plugin de Memoria" que cambia el juego

Lo más esperado es la posible integración de la tecnología Engram en V4, una innovación arquitectónica revolucionaria recientemente liberada como código abierto por DeepSeek. Su concepto central es separar la "memoria" del "cómputo": los modelos Transformer tradicionales necesitan usar múltiples capas de redes para reconocer frases fijas y sentido común, mientras que Engram permite al modelo recuperar directamente conocimiento estático a través de un "superdiccionario" de tabla de búsqueda, liberando redes profundas para enfocarse en el razonamiento complejo.

Este diseño trae resultados contraintuitivos: incluso para tareas que requieren un fuerte razonamiento como matemáticas y generación de código, el rendimiento mejora significativamente. Porque el modelo ya no necesita distraer su poder de cómputo para la "memorización de memoria". La investigación muestra que Engram-27B mejora en 5.0 puntos en tareas de razonamiento BigBench Hard y 3.0 puntos en generación de código HumanEval en comparación con una línea base pura de MoE.

Más importante aún, la arquitectura Engram admite almacenar una "base de conocimiento" de cientos de miles de millones de parámetros en memoria de CPU barata, con menos del 3% de pérdida de rendimiento durante la inferencia. Esto significa que se espera que el costo del despliegue empresarial de grandes modelos se reduzca significativamente, ya no dependiendo completamente de la costosa VRAM de GPU.

Del rumor de la comunidad a las expectativas de la industria

La discusión sobre la filtración del código Model1 ha estado ocurriendo durante varios días en la sección MachineLearning de Reddit y Hacker News. Los desarrolladores están analizando los últimos commits en GitHub línea por línea, tratando de armar la imagen completa de V4 a partir de los cambios de código.

"Este es el estilo típico de DeepSeek: sin avances de marketing excesivos, dejan que el código hable por sí mismo", comentó un desarrollador senior en un foro tecnológico. Este enfoque de "hablar con tecnología" ha acumulado en cambio una confianza y expectativa más fuertes en la comunidad tecnológica.

Desde el éxito de código abierto de R1 hasta el impulso de V4, DeepSeek está estableciendo un nuevo paradigma de código abierto: antes del lanzamiento oficial, a través de actualizaciones progresivas de la base de código, permitir que la comunidad participe y se adapte con anticipación. Esta estrategia no solo reduce el umbral de adopción para nuevos modelos, sino que también crea una atmósfera única de co-construcción comunitaria.

Replicando la estrategia exitosa del "Lanzamiento del Festival de Primavera"

DeepSeek parece estar bien versado en la regla de oro del "Lanzamiento del Festival de Primavera". El año pasado, R1 fue lanzado durante el Año Nuevo Lunar, aprovechando el tiempo relativamente libre de los desarrolladores globales para formar rápidamente una propagación viral en la comunidad de código abierto.

Esta elección de tiempo está llena de consideraciones estratégicas: evitar el denso calendario de lanzamientos de las empresas tecnológicas occidentales y ocupar una posición dominante en el ciclo de noticias tecnológicas relativamente tranquilo. Al mismo tiempo, los desarrolladores e investigadores tienen más tiempo libre durante el Festival de Primavera y están más dispuestos a probar y explorar profundamente nuevos modelos, formando así una propagación de boca en boca más profunda en la comunidad.

Con las actualizaciones continuas del código Model1, los lectores que deseen obtener las últimas noticias e interpretación profunda de DeepSeek V4 pueden continuar siguiendo los informes de seguimiento en deepseekv4.app. Este sitio web de seguimiento independiente ha organizado la cadena completa de información desde filtraciones de código hasta análisis técnico, convirtiéndose en el canal preferido para muchos desarrolladores para obtener el progreso de V4.

De R1 a V4, DeepSeek siempre ha estado demostrando un punto: la verdadera innovación no reside solo en la escala del modelo, sino también en la combinación perfecta de sabiduría arquitectónica y espíritu de código abierto. Cuando el código de Model1 se propaga silenciosamente en GitHub, lo que vemos no es solo el nacimiento de un nuevo modelo, sino también la apertura de un nuevo paradigma. Este Año Nuevo Lunar, el mundo de la IA de código abierto puede dar la bienvenida a otro gran avance.

Share:
All Posts

Author

avatar for DeepSeek UIO
DeepSeek UIO

Table of Contents

¡DeepSeek V4 de Código Abierto es Inminente!Un tributo técnico por el primer aniversario del Código AbiertoEngram: Un "Plugin de Memoria" que cambia el juegoDel rumor de la comunidad a las expectativas de la industriaReplicando la estrategia exitosa del "Lanzamiento del Festival de Primavera"

More Posts

OpenAI lanza GPT-5.4: ¡1M de contexto + Agentes nativos para frenar a DeepSeek V4!

OpenAI lanza GPT-5.4: ¡1M de contexto + Agentes nativos para frenar a DeepSeek V4!

OpenAI ha lanzado por sorpresa su modelo insignia GPT-5.4, con 1 millón de contexto nativo y un motor de agentes, buscando establecer una muralla tecnológica ante el lanzamiento de DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/06
Toda la red espera el banquete de DeepSeek V4, ¿por qué no se destapa la olla? ¡La verdad es más 'hardcore' de lo que piensas!

Toda la red espera el banquete de DeepSeek V4, ¿por qué no se destapa la olla? ¡La verdad es más 'hardcore' de lo que piensas!

¿Por qué DeepSeek V4 faltó a su cita del 2 de marzo? Revelamos las tres grandes apuestas tras el retraso: migración a la infraestructura de cómputo nacional, buque insignia multimodal y ventana de lanzamiento estratégica.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/05
La guerra de los modelos ligeros: GPT-5.3 Instant y Gemini 3.1 Flash-Lite llegan – ¿Cómo mantiene DeepSeek V4 su liderazgo?
DeepSeek V4News

La guerra de los modelos ligeros: GPT-5.3 Instant y Gemini 3.1 Flash-Lite llegan – ¿Cómo mantiene DeepSeek V4 su liderazgo?

Con el lanzamiento simultáneo de GPT-5.3 Instant y Gemini 3.1 Flash-Lite por OpenAI y Google, el mercado de modelos ligeros está en ebullición. Análisis de su impacto en ecosistemas de Agentes como OpenClaw y las ventajas competitivas de DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/04

Boletín

Únete a la comunidad

Suscríbete a nuestro boletín para las últimas noticias y actualizaciones

DeepSeek v4DeepSeek v4

La IA de codificación de próxima generación con arquitectura de memoria Engram.

TwitterX (Twitter)Email
Producto
  • Características
  • Memoria Engram
  • MHC
  • Visión OCR 2
  • Razonamiento Nativo
  • Indexador Rayo
Recursos
  • Noticias y Filtraciones
  • Zona de pruebas
  • FAQ
Compañía
  • Sobre nosotros
  • Contacto
  • Lista de espera
Legal
  • Política de Cookies
  • Política de Privacidad
  • Términos de Servicio
© 2026 DeepSeek v4 Todos los derechos reservados