DeepSeek v4
DeepSeek v4Beta
  • Recursos
  • Notícias & Vazamentos
  • Playground
  • FAQ
  1. Início
  2. Notícias DeepSeek
  3. DeepSeek V4 Open Source Iminente! Base de código do GitHub revela 'Model1' como a Estrela do Festival da Primavera
DeepSeek V4 Open Source Iminente! Base de código do GitHub revela 'Model1' como a Estrela do Festival da Primavera
2026/01/21

DeepSeek V4 Open Source Iminente! Base de código do GitHub revela 'Model1' como a Estrela do Festival da Primavera

Share:
A grandeza da comunidade open source reside no fato de que nenhuma grande atualização escapa aos olhos aguçados dos desenvolvedores. Assim como o DeepSeek-R1 celebra seu primeiro aniversário de código aberto, traços do modelo principal da próxima geração surgiram silenciosamente no repositório do GitHub.

DeepSeek V4 Open Source Iminente!

Em 21 de janeiro de 2026, a comunidade tecnológica descobriu uma pista importante na biblioteca de otimização FlashMLA do DeepSeek — um novo identificador de modelo chamado "Model1" apareceu em commits de código recentes. Esses commits abrangem vários arquivos e mencionam o Model1 ao lado do modelo V3.2 atual, indicando claramente que este é um novo ramo separado.

Essa descoberta coincide com um relatório exclusivo do meio de comunicação tecnológico The Information no início deste mês — o DeepSeek está se preparando intensamente para lançar seu modelo principal de próxima geração, codinome V4, durante o Ano Novo Lunar em meados de fevereiro. Das pistas na comunidade open source à verificação cruzada por mídias autorizadas, a especulação de que o Model1 é o V4 é quase uma conclusão precipitada.

Um tributo técnico ao primeiro aniversário do Open Source

Exatamente um ano atrás, o lançamento do DeepSeek-R1 abriu uma nova era de LLMs open source e se tornou o modelo mais curtido na plataforma Hugging Face. Agora, no primeiro aniversário do open source do R1, o código para V4 apareceu silenciosamente, continuando o compromisso do DeepSeek com o campo open source.

Ao contrário do R1, que se concentrou nos recursos de raciocínio, espera-se que o V4 traga atualizações arquitetônicas abrangentes. De acordo com informações vazadas, o V4 tem um total de 671 bilhões de parâmetros, adotando uma arquitetura Mixture of Experts (MoE) e tecnologia Manifold Constrained Hyperconnection (mHC), com a adição do módulo de memória Engram sendo potencialmente seu maior destaque.

A comunidade tecnológica está prestando muita atenção às atualizações no repositório DeepSeek FlashMLA no GitHub, pois cada commit pode revelar mais detalhes técnicos sobre o V4. A partir dos registros de commit atuais, os engenheiros do DeepSeek estão otimizando intensamente os mecanismos de atenção esparsa e o suporte à inferência FP8, todos os quais são preparativos para a implantação em larga escala do V4.

Engram: Um "Plugin de Memória" revolucionário

O mais esperado é a potencial integração da tecnologia Engram no V4, uma inovação arquitetônica revolucionária recentemente aberta pelo DeepSeek. Seu conceito central é separar a "memória" da "computação" — os modelos tradicionais de Transformer precisam usar várias camadas de redes para reconhecer frases fixas e senso comum, enquanto o Engram permite que o modelo recupere diretamente conhecimento estático por meio de um "superdicionário" de tabela de pesquisa, liberando redes profundas para se concentrar no raciocínio complexo.

Este design traz resultados contra-intuitivos: mesmo para tarefas que exigem forte raciocínio, como matemática e geração de código, o desempenho é significativamente aprimorado. Porque o modelo não precisa mais distrair seu poder de computação para "memorização mecânica". A pesquisa mostra que o Engram-27B melhora em 5,0 pontos nas tarefas de raciocínio BigBench Hard e 3,0 pontos na geração de código HumanEval em comparação com uma linha de base MoE pura.

Mais importante, a arquitetura Engram suporta o armazenamento de uma "base de conhecimento" de centenas de bilhões de parâmetros na memória barata da CPU, com menos de 3% de perda de taxa de transferência durante a inferência. Isso significa que o custo da implantação corporativa de grandes modelos deve ser significativamente reduzido, não dependendo mais inteiramente da cara GPU VRAM.

Do burburinho da comunidade às expectativas da indústria

A discussão sobre o vazamento do código Model1 está acontecendo há vários dias na seção MachineLearning do Reddit e no Hacker News. Os desenvolvedores estão analisando os últimos commits no GitHub linha por linha, tentando montar a imagem completa do V4 a partir das alterações de código.

"Este é o estilo típico do DeepSeek — sem teasers de marketing excessivos, deixe o código falar por si mesmo", comentou um desenvolvedor sênior em um fórum de tecnologia. Essa abordagem de "falar com tecnologia" acumulou maior confiança e expectativa na comunidade tecnológica.

Do sucesso open source do R1 ao momento do V4, o DeepSeek está estabelecendo um novo paradigma de código aberto: antes do lançamento oficial, por meio de atualizações progressivas da base de código, permitir que a comunidade participe e se adapte com antecedência. Essa estratégia não apenas reduz o limite de adoção de novos modelos, mas também cria uma atmosfera única de construção conjunta da comunidade.

Replicando a estratégia de sucesso do "Lançamento do Festival da Primavera"

O DeepSeek parece ser bem versado na regra de ouro do "Lançamento do Festival da Primavera". No ano passado, o R1 foi lançado durante o Ano Novo Lunar, aproveitando o tempo relativamente livre dos desenvolvedores globais para formar rapidamente uma disseminação viral na comunidade open source.

Essa escolha de tempo é cheia de considerações estratégicas: evitar o cronograma de lançamento denso das empresas de tecnologia ocidentais e ocupar uma posição dominante no ciclo de notícias de tecnologia relativamente tranquilo. Ao mesmo tempo, desenvolvedores e pesquisadores têm mais tempo livre durante o Festival da Primavera e estão mais dispostos a testar e explorar profundamente novos modelos, formando assim uma disseminação boca a boca mais profunda na comunidade.

Com as atualizações contínuas do código Model1, os leitores que desejam obter as últimas notícias e interpretações profundas do DeepSeek V4 podem continuar seguindo os relatórios de rastreamento em deepseekv4.app. Este site de rastreamento independente organizou toda a cadeia de informações, desde vazamentos de código até análises técnicas, tornando-se o canal preferido de muitos desenvolvedores para obter o progresso do V4.

De R1 a V4, o DeepSeek sempre provou um ponto: a verdadeira inovação não reside apenas na escala do modelo, mas também na combinação perfeita de sabedoria arquitetônica e espírito open source. Quando o código do Model1 se espalha silenciosamente no GitHub, o que vemos não é apenas o nascimento de um novo modelo, mas também a abertura de um novo paradigma. Neste Ano Novo Lunar, o mundo da IA open source pode receber outro grande avanço.

Share:
Todos os posts

Autor

avatar for DeepSeek UIO
DeepSeek UIO

Índice

DeepSeek V4 Open Source Iminente!Um tributo técnico ao primeiro aniversário do Open SourceEngram: Um "Plugin de Memória" revolucionárioDo burburinho da comunidade às expectativas da indústriaReplicando a estratégia de sucesso do "Lançamento do Festival da Primavera"

Mais posts

OpenAI lança GPT-5.4: 1M de contexto + Agentes nativos para barrar o DeepSeek V4!

OpenAI lança GPT-5.4: 1M de contexto + Agentes nativos para barrar o DeepSeek V4!

A OpenAI lançou de surpresa o seu modelo topo de gama GPT-5.4, com 1 milhão de contexto nativo e um motor de agentes, visando construir uma barreira tecnológica antes do lançamento do DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/06
Toda a rede espera o banquete do DeepSeek V4, por que a panela ainda não abriu? A verdade é mais 'hardcore' do que você pensa!

Toda a rede espera o banquete do DeepSeek V4, por que a panela ainda não abriu? A verdade é mais 'hardcore' do que você pensa!

Por que o DeepSeek V4 faltou ao encontro de 2 de março? Revelamos as três grandes apostas por trás do atraso: migração para a infraestrutura de computação nacional, carro-chefe multimodal e janela estratégica de lançamento.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/05
A guerra dos modelos leves: GPT-5.3 Instant e Gemini 3.1 Flash-Lite chegam – Como o DeepSeek V4 mantém a liderança?
DeepSeek V4News

A guerra dos modelos leves: GPT-5.3 Instant e Gemini 3.1 Flash-Lite chegam – Como o DeepSeek V4 mantém a liderança?

Com o lançamento simultâneo do GPT-5.3 Instant e Gemini 3.1 Flash-Lite pela OpenAI e Google, o mercado de modelos leves está em ebulição. Análise do impacto nos ecossistemas de Agentes como o OpenClaw e as vantagens competitivas do DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/04

Newsletter

Junte-se à Comunidade

Assine nossa newsletter para as últimas notícias e atualizações

DeepSeek v4DeepSeek v4

A IA de codificação de próxima geração com arquitetura de memória Engram.

TwitterX (Twitter)Email
Produto
  • Recursos
  • Memória Engram
  • MHC
  • OCR 2 Vision
  • Raciocínio Nativo
  • Lightning Indexer
Recursos
  • Notícias & Vazamentos
  • Playground
  • FAQ
Empresa
  • Sobre
  • Contato
  • Lista de Espera
Legal
  • Política de Cookies
  • Política de Privacidade
  • Termos de Serviço
© 2026 DeepSeek v4 Todos os direitos reservados