- Accueil
- Nouvelles DeepSeek
- DeepSeek V4 disponible la semaine prochaine ? Un nouveau papier révèle DualPath, un framework d'inférence révolutionnaire

DeepSeek V4 disponible la semaine prochaine ? Un nouveau papier révèle DualPath, un framework d'inférence révolutionnaire
Alors que la date de sortie de DeepSeek V4 approche, un article sur le framework d'inférence DualPath suscite un vif intérêt. En brisant le goulot d'étranglement de la séparation PD, il double le débit des agents IA, annonçant l'ère des employés IA opérationnels 24h/24 et 7j/7.
L'équipe DeepSeek démontre une fois de plus son ambition d'évolution au niveau système. Alors que les développeurs du monde entier recherchent frénétiquement la DeepSeek V4 release date, un article intitulé « DualPath », publié conjointement par l'équipe système de DeepSeek, l'Université de Pékin et l'Université Tsinghua, est discrètement apparu sur ArXiv. Il ne s'agit pas seulement d'une publication académique, mais d'un avant-goût de l'architecture d'inférence au cœur de DeepSeek V4.
L'objectif principal du framework DualPath est de résoudre le point le plus critique du déploiement des agents IA : le goulot d'étranglement des E/S lors de l'inférence de textes longs.
Briser la séparation PD : l'art d'utiliser la « bande passante inutilisée »
Dans les architectures traditionnelles de séparation pré-remplissage/décodage (PD-disaggregated), toutes les tâches de chargement du KV-Cache s'accumulent sur la carte réseau de stockage du moteur de pré-remplissage, saturant instantanément la bande passante. Pendant ce temps, la carte réseau du moteur de décodage reste inactive.
DualPath introduit un second chemin nommé « Storage-to-Decode », permettant une mutualisation globale de la bande passante de stockage du cluster. Lors de tests sur un modèle de 660B :
- Le débit d'inférence hors ligne a augmenté de 1,87 fois.
- Le débit du service en ligne a augmenté en moyenne de 1,96 fois.
- La latence du premier jeton (TTFT) a été considérablement optimisée, permettant une réponse de l'agent proche de l'intuition humaine.
La dernière pièce du puzzle pour les employés IA 24h/24 et 7j/7
Pourquoi consacrer tant d'efforts à l'optimisation de la vitesse de transfert du KV-Cache ? La réponse réside dans le scénario des employés numériques fonctionnant 24h/24 et 7j/7.
Les futurs agents IA ne seront plus de simples fenêtres de chat « question-réponse », mais, comme le montre OpenClaw, ils seront capables d'exécuter des tâches de manière autonome, de lire des milliers d'e-mails et de gérer des chaînes de décision complexes. Dans ces scénarios, le taux de réussite du KV-Cache dépasse généralement 95 %. Le framework DualPath accélère le transfert des « anciens souvenirs », rendant le fonctionnement des agents à contexte ultra-long moins coûteux et plus rapide.
Cela signifie que lorsque nous déploierons DeepSeek V4 dans un framework d'agent local comme OpenClaw, votre employé IA disposera d'une mémoire instantanée presque infinie, sans subir de ralentissements de réflexion lors de tâches lourdes.
Spéculations sur la date de sortie de DeepSeek V4
Bien qu'aucune date officielle n'ait été communiquée, l'auteur principal du papier DualPath, Yongtong Wu, travaille actuellement pour l'équipe système de DeepSeek. En tenant compte des récents avertissements de CNBC sur l'impact des nouveaux modèles de DeepSeek sur le marché, l'industrie spécule que DeepSeek V4 pourrait très probablement faire ses débuts la semaine prochaine.
Cette architecture DualPath pourrait bien être l'arme secrète permettant à V4 de surpasser les performances d'agent de GPT-5 tout en conservant un rapport qualité-prix exceptionnel.
👉 Vous ne voulez pas manquer le lancement majeur de la semaine prochaine ? Cliquez sur DeepSeekV4.app pour vous abonner à nos informations exclusives et obtenir des renseignements de première main avant que la nouvelle n'embrase Twitter.
Édition : UIO
Plus d'articles

Lancement de GPT-5.4 : OpenAI sort l'artillerie lourde avec 1M de contexte et des Agents natifs pour contrer DeepSeek V4 !
OpenAI a lancé par surprise son modèle phare GPT-5.4, doté de 1 million de contexte natif et d'un moteur d'agent, visant à établir une domination technologique avant la sortie de DeepSeek V4.


Tout le web attend DeepSeek V4 – Pourquoi l'assiette reste-t-elle vide ? La vérité est peut-être plus « hardcore » que vous ne le pensez !
Pourquoi DeepSeek V4 n'a-t-il pas tenu son rendez-vous du 2 mars ? Découvrons les trois paris stratégiques derrière ce retard : migration vers la puissance de calcul nationale, vaisseau amiral multimodal et fenêtre de lancement stratégique.


La guerre des modèles légers : GPT-5.3 Instant et Gemini 3.1 Flash-Lite arrivent – Comment DeepSeek V4 garde-t-il l'avantage ?
Avec les sorties simultanées de GPT-5.3 Instant et Gemini 3.1 Flash-Lite par OpenAI et Google, le marché des modèles légers s'enflamme. Analyse de leur impact sur les écosystèmes d'Agents comme OpenClaw et des avantages de DeepSeek V4.

Newsletter
Rejoignez la communauté
Abonnez-vous à notre newsletter pour les dernières nouvelles et mises à jour