
Des rapports provenant de X et Reddit confirment que DeepSeek a lancé une phase de déploiement limité (gray release) de son modèle V4. Avec un support de contexte de 1M, la sortie officielle est prévue pour fin avril.


Confirmation interne de Liang Wenfeng : DeepSeek V4 sortira mi-avril. La percée LTM pourrait mettre fin à l'ère RAG !


Une analyse approfondie de la configuration JSON divulguée et des premiers tests des nouveaux modes « Rapide » et « Expert » de DeepSeek.


Plongée en profondeur dans les détails divulgués du Mode Vision de DeepSeek V4, explorant comment l'architecture multimodale native remodèle la perception spatiale de l'IA et le développement agentique.






Pourquoi DeepSeek V4 a-t-il été reporté à avril ? Comment l'architecture technologique centrale mHC et la mémoire à long terme Engram collaborent-elles ? Découvrez la stratégie à la veille du modèle open source chinois le plus performant.

D'après plusieurs nœuds de surveillance d'API mondiaux, DeepSeek aurait mis à jour sa branche beta-v4 la nuit dernière. Des tests ont révélé que certaines clés API peuvent désormais utiliser jusqu'à 1 million de tokens de contexte, avec une augmentation de 30 % de la vitesse d'inférence.

DeepSeek a annoncé aujourd'hui que V4 lancera en avant-première la technologie 'mTelepathy' (synchronisation cerveau-machine), qui perçoit les ondes neuronales de la rétine de l'utilisateur grâce à la réflexion de la faible lumière de l'écran. Cela marque-t-il l'arrivée de l'ère de la programmation 'zéro saisie' ?

Juste à l'instant, la page d'état officielle de DeepSeek est de nouveau passée en 'mode enquête'. Avec deux pannes majeures en trois jours, cette fréquence inhabituelle présage-t-elle une mise en ligne 'à chaud' du modèle V4, concurrent de GPT-5.4 ?

La panne totale de DeepSeek, qui a duré 8 heures hier soir, a suscité de vives discussions sur l'ensemble du réseau. Est-ce le V4 Sealion, avec ses billions de paramètres, qui démarre à froid en arrière-plan, ou s'agit-il d'une cyberattaque d'envergure nationale comme le GPT-5.4?

腾讯科技 publie un article intitulé « Le peuple regrette DeepSeek », pointant du doigt la crise des coûts des tokens après la popularisation d'OpenClaw (Homard). L'architecture mHC de V4 pourra-t-elle relancer une guerre des prix comme GPT-5.4 ?


Pourquoi le dernier recrutement de DeepSeek a-t-il explicitement exigé des compétences OpenClaw ?


Zhipu GLM 5, Kimi 2.5 et MiniMax m2.7 dominent la scène. DeepSeek a-t-il vraiment pris du retard ? Analyse approfondie du papier sur l'architecture mHC pour voir comment DeepSeek redéfinit le rapport performance-prix de l'IA avec V4.


Le modèle Rakuten AI 3.0, fièrement annoncé par le groupe japonais Rakuten, a été démasqué : son architecture sous-jacente est une copie conforme du modèle open source chinois DeepSeek-V3, provoquant la consternation de la communauté japonaise.
