- Главная
- Новости DeepSeek
- Обратный отсчет DeepSeek V4 - Еженедельное обновление (25 янв 2026): Утечка спецификаций, дата выхода и слухи с Reddit

Обратный отсчет DeepSeek V4 - Еженедельное обновление (25 янв 2026): Утечка спецификаций, дата выхода и слухи с Reddit
Последние слухи о DeepSeek V4: Наиболее вероятное окно релиза — 17 февраля 2026 года, утечки кода MODEL1, архитектура MoE 800B+, обсуждения квантования на Reddit и сравнения с GPT-5.
С приближением Лунного Нового года 2026 взгляды мирового ИИ-сообщества прикованы к DeepSeek. После модели R1, потрясшей индустрию, сможет ли DeepSeek V4 снова нарушить ценовую политику рынка и потолок производительности?
Мы собрали всю основную информацию из репозиториев GitHub, научных статей, сообществ Reddit и предположений разработчиков, чтобы предоставить вам наиболее полный предварительный обзор выпуска V4.
1. Дата выхода: почему 17 февраля 2026 года?
Наиболее широко распространенное в настоящее время окно релиза — 17 февраля 2026 года (Лунный Новый год).
- Историческая закономерность: У DeepSeek есть традиция выпускать крупные обновления во время Лунного Нового года (как R1 в прошлом году).
- Улики из утечек: Несколько сообществ разработчиков и технических инфлюенсеров в Twitter отметили, что серверные кластеры DeepSeek недавно находились в состоянии тестирования вывода при полной нагрузке, что является типичным признаком за 3-4 недели до запуска.
2. Утечка основных спецификаций: Технические детали "MODEL1"
Основываясь на обновлениях кода в репозитории GitHub deepseek-v3 и связанных проектах 20 января, мы определили следующие технические параметры:
- Обновление архитектуры: V4 с большой вероятностью продолжит архитектуру Mixture-of-Experts (MoE), но общее количество параметров может превысить 800B, в то время как активные параметры будут оптимизированы для снижения, чтобы поддерживать экстремальную скорость вывода. См. Раскрытие DeepSeek V4 Model1 на Github.
- Оптимизация FlashMLA: Официальная команда недавно открыла исходный код FlashMLA, специально оптимизировав Multi-Head Latent Attention для архитектуры Hopper (H100/H800), что означает, что затраты на вывод V4 упадут еще больше.
- Механизм памяти Engram: Объединяя последние исследовательские работы DeepSeek, V4 может представить "Био-вдохновленную условную память", поддерживающую контекстное окно до 1M+ без феномена "амнезии" в конце длинных текстов, наблюдаемого в традиционных моделях. Подробнее о Механизме памяти Engram.
3. Шумиха в сообществе Reddit: За чем следят пользователи по всему миру?
В каналах r/DeepSeek и r/LocalLLaMA обсуждения V4 просто взрываются. Основные точки зрения включают:
- "Альтернатива o1": Пользователи Reddit в целом ожидают, что V4 будет конкурировать с o1 и o3 от OpenAI в "Тихом рассуждении" ("Silent Reasoning").
- Порог локального развертывания: Энтузиасты аппаратного обеспечения больше всего озабочены квантованными версиями V4. Люди прогнозируют, смогут ли 4x RTX 5090 запустить версию V4 со средними параметрами. Ознакомьтесь с Руководством по локальному развертыванию DeepSeek V4.
- Возможности кодирования: "DeepSeek всегда конкурировал с Claude 3.5 Sonnet в кодировании. V4 может набрать более 90% на HumanEval". — Комментарий на Reddit с наивысшим рейтингом.
4. Прогноз производительности: V4 против GPT-5 / Claude 4.5
Основываясь на текущих утечках, мы прогнозируем производительность V4 (для подробных сравнений см. Бенчмарки DeepSeek V4):
- Математика и Рассуждение: Значительно опередит V3, ожидается улучшение результатов AIME более чем на 15%.
- Цены API: Ожидается, что они останутся самыми низкими в отрасли, возможно, будет введена еще более агрессивная стратегия "центы за миллион токенов", что фактически положит конец эре дорогих моделей с закрытым исходным кодом. Дополнительную информацию см. в Руководстве по API DeepSeek V4.
5. Как получить уведомление о релизе первым?
DeepSeek часто выбирает неожиданный релиз прямо на своем официальном сайте www.deepseek.com и GitHub поздно ночью или рано утром.
- Добавьте нас в закладки: Мы будем отслеживать активность DeepSeek на GitHub в режиме реального времени.
- Следите за ключевыми словами: Обращайте внимание на такие термины, как MODEL1 или DeepSeek-V4-Preview.
Author

More Posts

OpenAI запускает флагман GPT-5.4: 2 млн контекста + нативные агенты для блокировки DeepSeek V4!
OpenAI внезапно представила свою самую мощную флагманскую модель GPT-5.4 с 1 миллионми нативного контекста и движком агентов, стремясь создать технологический барьер перед выходом DeepSeek V4.


Весь интернет ждет выхода DeepSeek V4 – почему «блюдо» до сих пор не подано? Правда может быть куда серьезнее, чем вы думаете!
Почему DeepSeek V4 пропустил запуск 2 марта? Раскрываем три стратегические причины задержки: миграция на отечественную вычислительную базу, мультимодальный флагман и стратегическое окно релиза.


Война легких моделей: GPT-5.3 Instant и Gemini 3.1 Flash-Lite вступают в бой — как DeepSeek V4 сохраняет лидерство?
С одновременным выпуском GPT-5.3 Instant и Gemini 3.1 Flash-Lite от OpenAI и Google рынок легких моделей снова закипает. Анализ влияния этих моделей на экосистемы агентов, такие как OpenClaw, и конкурентные преимущества DeepSeek V4.

Новостная рассылка
Присоединяйтесь к сообществу
Подпишитесь на нашу рассылку для получения последних новостей и обновлений