
Heavyweight news rocks the AI community: Alleged official DeepSeek V4 benchmark charts have leaked. Data suggests V4 has achieved a comprehensive lead over top-tier overseas models in reasoning and coding. While unconfirmed, the excitement is global.


Una captura de pantalla de un informe técnico interno de DeepSeek ha sacudido al mundo. Los datos muestran que la próxima versión V4 supera a GPT-5.3 y Claude Opus 4.6 en todas las métricas clave, incluyendo programación, razonamiento y colaboración de agentes. Este artículo analiza en profundidad los milagros técnicos detrás de los resultados filtrados de V4.


Cailianshe Scoop: DeepSeek is in its first-ever talks for external capital, with valuation soaring past $10 billion. This marks DeepSeek's evolution from a 'High-Flyer Quant Lab' to a global compute titan, building a capital moat for the upcoming V4 model.


DeepSeek V4 inició pruebas beta limitadas el 8 de abril, con el fundador Liang Wenfeng confirmando internamente una ventana de lanzamiento a finales de abril. Reuters informa que DeepSeek V4 muestra un rendimiento sorprendente en los chips Ascend de Huawei, lo que ha generado una profunda preocupación en el CEO de NVIDIA, Huang Renxun, sobre el panorama del mercado.


财联社爆料:DeepSeek está en conversaciones iniciales con capital externo, y su valoración ya ha superado la barrera de los 10 mil millones de dólares. Esto significa que DeepSeek se está transformando de un 'laboratorio cuantitativo de Huanfang' en un gigante de la computación a escala global, construyendo un foso de capital para su inminente modelo V4.


DeepSeek ha iniciado una contratación masiva de personal para su infraestructura física en Ulanqab, Mongolia Interior, con salarios mensuales que alcanzan los 30.000. Esto implica que DeepSeek está transitando de alquilar servicios en la nube a construir su propio centro de datos, forjando un baluarte de poder computacional para la inferencia y el entrenamiento a gran escala de DeepSeek V4.


Según la información más reciente, DeepSeek V4 se lanzará oficialmente a finales de abril de 2026. Este modelo utilizará una escala de 1 billón de parámetros, admitirá un contexto ultralargo de 1M Token y se optimizará profundamente a nivel de base para el hardware Huawei Ascend 910B.


Múltiples fuentes de X y Reddit confirman que DeepSeek ha comenzado las pruebas beta limitadas del modelo V4, que admite 1M de contexto. La versión oficial se espera para finales de abril.


Confirmación interna de Liang Wenfeng: ¡DeepSeek V4 se lanzará a mediados o finales de abril, el avance de LTM podría terminar con la era RAG!


Una inmersión profunda en la configuración JSON filtrada y las pruebas tempranas de los nuevos modos "Rápido" y "Experto" de DeepSeek.


Inmersión profunda en los detalles filtrados del Modo Visión de DeepSeek V4, explorando cómo la arquitectura multimodal nativa está remodelando la percepción espacial de la IA y el desarrollo agentic.






¿Por qué se retrasó DeepSeek V4 hasta abril? ¿Cómo colaboran la arquitectura tecnológica central mHC y la memoria a largo plazo Engram? Un artículo para entender la planificación previa al lanzamiento del modelo de código abierto nacional más potente, posiblemente superando a GPT-5.4.

Según muestran múltiples nodos de monitorización de API a nivel mundial, DeepSeek aparentemente actualizó su rama beta-v4 anoche. Las pruebas muestran que algunas API Key ya pueden invocar un contexto de hasta 1 millón de tokens, con una mejora del 30% en la velocidad de inferencia.