- Главная
- Новости DeepSeek
- DeepSeek V4 выйдет на следующей неделе? Новая статья раскрывает революционный фреймворк инференса DualPath

DeepSeek V4 выйдет на следующей неделе? Новая статья раскрывает революционный фреймворк инференса DualPath
По мере приближения даты выхода DeepSeek V4 статья о фреймворке DualPath вызывает бурные обсуждения. Устраняя узкое место разделения PD, он удваивает пропускную способность ИИ-агентов, предвещая эру цифровых сотрудников, работающих 24/7.
Команда DeepSeek снова демонстрирует свои амбиции в эволюции «системного уровня». Пока разработчики по всему миру лихорадочно ищут DeepSeek V4 release date, на ArXiv тихо появилась статья под названием «DualPath», опубликованная совместно системной группой DeepSeek, Пекинским университетом и Университетом Цинхуа. Это не просто академическая публикация, а своего рода «спойлер» основной архитектуры инференса DeepSeek V4.
Ключевая цель фреймворка DualPath — решение самой болезненной проблемы при внедрении ИИ-агентов: узкого места ввода-вывода (I/O) при обработке длинных текстов.
Преодоление разделения PD: искусство использования «простаивающей пропускной способности»
В традиционных архитектурах с разделением префиллинга и декодинга (PD-disaggregated) все задачи по загрузке KV-Cache скапливаются на сетевой карте хранилища движка префиллинга, что мгновенно забивает канал. В то же время сетевая карта движка декодинга остается незадействованной.
DualPath вводит второй путь под названием «Storage-to-Decode», обеспечивая глобальное объединение пропускной способности хранилища кластера. В тестах на модели масштаба 660B:
- Пропускная способность офлайн-инференса выросла в 1,87 раза.
- Пропускная способность онлайн-сервиса увеличилась в среднем в 1,96 раза.
- Задержка до первого токена (TTFT) была значительно оптимизирована, благодаря чему отклик агента достиг уровня человеческой интуиции.
Последний элемент пазла для ИИ-сотрудников 24/7
Зачем тратить столько усилий на оптимизацию скорости «перемещения» KV-Cache? Ответ кроется в сценарии использования цифровых сотрудников, работающих в режиме 24/7.
Будущие ИИ-агенты — это не просто чат-боты в формате «вопрос-ответ», а автономные системы, способные, как демонстрирует OpenClaw, круглосуточно выполнять задачи, читать тысячи писем и управлять сложными цепочками принятия решений. В таких сценариях процент попаданий в KV-Cache обычно превышает 95%. Фреймворк DualPath ускоряет перемещение «старых воспоминаний», делая работу агентов с длинным контекстом дешевле и быстрее.
Это означает, что при развертывании DeepSeek V4 в локальных фреймворках для агентов, таких как OpenClaw, ваш ИИ-сотрудник получит практически неограниченную мгновенную память и не будет «зависать в раздумьях» при обработке тяжелых задач.
Догадки о дате выхода DeepSeek V4
Хотя официальная дата еще не объявлена, первый автор статьи DualPath Юнтун У в настоящее время работает в системной группе DeepSeek. В сочетании с недавними предупреждениями CNBC о влиянии новых моделей DeepSeek на рынок, в индустрии широко распространено мнение, что DeepSeek V4, скорее всего, официально дебютирует на следующей неделе.
Архитектура DualPath может стать тем самым секретным оружием, которое позволит V4 превзойти GPT-5 в производительности агентов, сохраняя при этом экстремальную экономическую эффективность.
👉 Не хотите пропустить важный релиз на следующей неделе? Нажмите на DeepSeekV4.app, чтобы подписаться на наши инсайды и получить информацию из первых рук до того, как новость взорвет Twitter.
Редактор: UIO
More Posts

OpenAI запускает флагман GPT-5.4: 2 млн контекста + нативные агенты для блокировки DeepSeek V4!
OpenAI внезапно представила свою самую мощную флагманскую модель GPT-5.4 с 1 миллионми нативного контекста и движком агентов, стремясь создать технологический барьер перед выходом DeepSeek V4.


Весь интернет ждет выхода DeepSeek V4 – почему «блюдо» до сих пор не подано? Правда может быть куда серьезнее, чем вы думаете!
Почему DeepSeek V4 пропустил запуск 2 марта? Раскрываем три стратегические причины задержки: миграция на отечественную вычислительную базу, мультимодальный флагман и стратегическое окно релиза.


Война легких моделей: GPT-5.3 Instant и Gemini 3.1 Flash-Lite вступают в бой — как DeepSeek V4 сохраняет лидерство?
С одновременным выпуском GPT-5.3 Instant и Gemini 3.1 Flash-Lite от OpenAI и Google рынок легких моделей снова закипает. Анализ влияния этих моделей на экосистемы агентов, такие как OpenClaw, и конкурентные преимущества DeepSeek V4.

Новостная рассылка
Присоединяйтесь к сообществу
Подпишитесь на нашу рассылку для получения последних новостей и обновлений