- Accueil
- Nouvelles DeepSeek
- DeepSeek V4 Open Source Imminent ! La base de code GitHub révèle 'Model1' comme la star du Festival du Printemps

DeepSeek V4 Open Source Imminent ! La base de code GitHub révèle 'Model1' comme la star du Festival du Printemps
La grandeur de la communauté open source réside dans le fait qu'aucune mise à jour majeure n'échappe aux yeux perçants des développeurs. Alors que DeepSeek-R1 célèbre son premier anniversaire d'open source, des traces du modèle phare de nouvelle génération ont discrètement émergé dans le dépôt GitHub.
DeepSeek V4 Open Source Imminent !
Le 21 janvier 2026, la communauté technologique a découvert un indice clé dans la bibliothèque d'optimisation FlashMLA de DeepSeek — un nouvel identifiant de modèle nommé "Model1" est apparu dans des commits de code récents. Ces commits s'étendent sur plusieurs fichiers et mentionnent Model1 aux côtés du modèle actuel V3.2, indiquant clairement qu'il s'agit d'une nouvelle branche distincte.
Cette découverte coïncide avec un rapport exclusif du média technologique The Information plus tôt ce mois-ci — DeepSeek se prépare intensément à lancer son modèle phare de nouvelle génération, nom de code V4, pendant le Nouvel An lunaire à la mi-février. Des indices de la communauté open source à la vérification croisée par des médias faisant autorité, la spéculation selon laquelle Model1 est V4 est presque une conclusion inévitable.
Un hommage technique pour le premier anniversaire de l'Open Source
Il y a exactement un an, la sortie de DeepSeek-R1 ouvrait une nouvelle ère de LLM open source et devenait le modèle le plus aimé sur la plateforme Hugging Face. Aujourd'hui, pour le premier anniversaire de l'ouverture du code de R1, le code de V4 est apparu discrètement, poursuivant l'engagement de DeepSeek envers le domaine de l'open source.
Contrairement à R1, qui se concentrait sur les capacités de raisonnement, V4 devrait apporter des mises à jour architecturales complètes. Selon des informations divulguées, V4 compte un total de 671 milliards de paramètres, adoptant une architecture Mixture of Experts (MoE) et la technologie Manifold Constrained Hyperconnection (mHC), l'ajout du module de mémoire Engram étant potentiellement son plus grand point fort.
La communauté technologique prête une attention particulière aux mises à jour dans le dépôt DeepSeek FlashMLA sur GitHub, car chaque commit pourrait révéler plus de détails techniques sur V4. D'après les enregistrements de commit actuels, les ingénieurs de DeepSeek optimisent intensément les mécanismes d'attention clairsemée et le support d'inférence FP8, tous étant des préparatifs pour le déploiement à grande échelle de V4.
Engram : Un "Plugin de Mémoire" qui change la donne
Le plus attendu est l'intégration potentielle de la technologie Engram dans V4, une innovation architecturale révolutionnaire récemment rendue open source par DeepSeek. Son concept central est de séparer la "mémoire" du "calcul" — les modèles Transformer traditionnels doivent utiliser plusieurs couches de réseaux pour reconnaître des phrases fixes et le bon sens, tandis qu'Engram permet au modèle de récupérer directement des connaissances statiques via un "super dictionnaire" (table de recherche), libérant les réseaux profonds pour se concentrer sur le raisonnement complexe.
Cette conception apporte des résultats contre-intuitifs : même pour des tâches nécessitant un fort raisonnement comme les mathématiques et la génération de code, les performances sont considérablement améliorées. Parce que le modèle n'a plus besoin de distraire sa puissance de calcul pour du "par cœur". La recherche montre qu'Engram-27B s'améliore de 5,0 points sur les tâches de raisonnement BigBench Hard et de 3,0 points sur la génération de code HumanEval par rapport à une base de référence MoE pure.
Plus important encore, l'architecture Engram prend en charge le stockage d'une "base de connaissances" de centaines de milliards de paramètres dans une mémoire CPU bon marché, avec moins de 3 % de perte de débit pendant l'inférence. Cela signifie que le coût du déploiement en entreprise de grands modèles devrait être considérablement réduit, ne dépendant plus entièrement de la coûteuse VRAM GPU.
Du buzz de la communauté aux attentes de l'industrie
La discussion sur la fuite du code Model1 dure depuis plusieurs jours sur la section MachineLearning de Reddit et sur Hacker News. Les développeurs analysent les derniers commits sur GitHub ligne par ligne, essayant de reconstituer l'image complète de V4 à partir des modifications de code.
"C'est le style typique de DeepSeek — pas de teasers marketing excessifs, laisser le code parler de lui-même", a commenté un développeur senior sur un forum technologique. Cette approche "parler avec la technologie" a au contraire accumulé une confiance et une attente plus fortes dans la communauté technologique.
Du succès open source de R1 à l'élan de V4, DeepSeek établit un nouveau paradigme open source : avant la sortie officielle, par des mises à jour progressives de la base de code, permettre à la communauté de participer et de s'adapter à l'avance. Cette stratégie abaisse non seulement le seuil d'adoption pour les nouveaux modèles, mais crée également une atmosphère unique de co-construction communautaire.
Répétition de la stratégie gagnante du "Lancement du Festival du Printemps"
DeepSeek semble bien connaître la règle d'or du "Lancement du Festival du Printemps". L'année dernière, R1 a été lancé pendant le Nouvel An lunaire, profitant du temps relativement libre des développeurs mondiaux pour former rapidement une propagation virale dans la communauté open source.
Ce choix de timing est plein de considérations stratégiques : éviter le calendrier de sortie dense des entreprises technologiques occidentales et occuper une position dominante dans le cycle d'actualités technologiques relativement calme. En même temps, les développeurs et les chercheurs ont plus de temps libre pendant le Festival du Printemps et sont plus disposés à tester et explorer en profondeur de nouveaux modèles, formant ainsi une propagation bouche-à-oreille plus profonde dans la communauté.
Avec les mises à jour continues du code Model1, les lecteurs qui souhaitent obtenir les dernières nouvelles et une interprétation approfondie de DeepSeek V4 peuvent continuer à suivre les rapports de suivi sur deepseekv4.app. Ce site web de suivi indépendant a organisé toute la chaîne d'informations, des fuites de code à l'analyse technique, devenant le canal privilégié de nombreux développeurs pour obtenir les progrès de V4.
De R1 à V4, DeepSeek a toujours prouvé un point : la véritable innovation ne réside pas seulement dans l'échelle du modèle, mais aussi dans la combinaison parfaite de la sagesse architecturale et de l'esprit open source. Lorsque le code de Model1 se propage silencieusement sur GitHub, ce que nous voyons n'est pas seulement la naissance d'un nouveau modèle, mais aussi l'ouverture d'un nouveau paradigme. Ce Nouvel An lunaire, le monde de l'IA open source pourrait accueillir une autre avancée majeure.
Auteur

Plus d'articles

Lancement de GPT-5.4 : OpenAI sort l'artillerie lourde avec 1M de contexte et des Agents natifs pour contrer DeepSeek V4 !
OpenAI a lancé par surprise son modèle phare GPT-5.4, doté de 1 million de contexte natif et d'un moteur d'agent, visant à établir une domination technologique avant la sortie de DeepSeek V4.


Tout le web attend DeepSeek V4 – Pourquoi l'assiette reste-t-elle vide ? La vérité est peut-être plus « hardcore » que vous ne le pensez !
Pourquoi DeepSeek V4 n'a-t-il pas tenu son rendez-vous du 2 mars ? Découvrons les trois paris stratégiques derrière ce retard : migration vers la puissance de calcul nationale, vaisseau amiral multimodal et fenêtre de lancement stratégique.


La guerre des modèles légers : GPT-5.3 Instant et Gemini 3.1 Flash-Lite arrivent – Comment DeepSeek V4 garde-t-il l'avantage ?
Avec les sorties simultanées de GPT-5.3 Instant et Gemini 3.1 Flash-Lite par OpenAI et Google, le marché des modèles légers s'enflamme. Analyse de leur impact sur les écosystèmes d'Agents comme OpenClaw et des avantages de DeepSeek V4.

Newsletter
Rejoignez la communauté
Abonnez-vous à notre newsletter pour les dernières nouvelles et mises à jour