DeepSeek v4
DeepSeek v4Beta
  • Функции
  • Новости и утечки
  • Песочница
  • FAQ
  1. Главная
  2. Новости DeepSeek
  3. Скоро выход DeepSeek V4 в Open Source! В коде GitHub обнаружен 'Model1' — звезда Праздника Весны
Скоро выход DeepSeek V4 в Open Source! В коде GitHub обнаружен 'Model1' — звезда Праздника Весны
2026/01/21

Скоро выход DeepSeek V4 в Open Source! В коде GitHub обнаружен 'Model1' — звезда Праздника Весны

Share:
Величие сообщества open source заключается в том, что ни одно крупное обновление не ускользает от зорких глаз разработчиков. В то время как DeepSeek-R1 празднует первую годовщину выхода в открытый доступ, в репозитории GitHub тихо появились следы флагманской модели следующего поколения.

Релиз DeepSeek V4 в Open Source неизбежен!

21 января 2026 года технологическое сообщество обнаружило ключевую подсказку в библиотеке оптимизации FlashMLA от DeepSeek — в недавних коммитах кода появился новый идентификатор модели под названием «Model1». Эти коммиты охватывают несколько файлов и упоминают Model1 наряду с текущей моделью V3.2, ясно указывая, что это отдельная новая ветка.

Это открытие совпадает с эксклюзивным отчетом технического издания The Information в начале этого месяца — DeepSeek интенсивно готовится к запуску своей флагманской модели следующего поколения под кодовым названием V4 во время Лунного Нового года в середине февраля. От подсказок в сообществе open source до перекрестной проверки авторитетными СМИ, предположение, что Model1 — это V4, является почти предрешенным выводом.

Техническая дань уважения первой годовщине Open Source

Ровно год назад релиз DeepSeek-R1 открыл новую эру LLM с открытым исходным кодом и стал самой популярной моделью на платформе Hugging Face. Теперь, в первую годовщину открытия исходного кода R1, код для V4 тихо появился, продолжая приверженность DeepSeek сфере open source.

В отличие от R1, которая была сосредоточена на способностях к рассуждению, ожидается, что V4 принесет комплексные архитектурные обновления. Согласно просочившейся информации, V4 имеет в общей сложности 671 миллиард параметров, используя архитектуру Mixture of Experts (MoE) и технологию Manifold Constrained Hyperconnection (mHC), причем добавление модуля памяти Engram потенциально является ее самой большой изюминкой.

Технологическое сообщество пристально следит за обновлениями в репозитории DeepSeek FlashMLA на GitHub, так как каждый коммит может раскрыть больше технических деталей о V4. Из текущих записей коммитов видно, что инженеры DeepSeek интенсивно оптимизируют механизмы разреженного внимания (sparse attention) и поддержку инференса FP8, что является подготовкой к крупномасштабному развертыванию V4.

Engram: «Плагин памяти», меняющий правила игры

Больше всего ожидается потенциальная интеграция технологии Engram в V4, революционной архитектурной инновации, недавно открытой DeepSeek. Ее основная концепция заключается в отделении «памяти» от «вычислений» — традиционные модели Transformer должны использовать несколько слоев сетей для распознавания фиксированных фраз и здравого смысла, в то время как Engram позволяет модели напрямую извлекать статические знания через «супер-словарь» (таблицу поиска), освобождая глубокие сети для концентрации на сложном рассуждении.

Этот дизайн приносит контринтуитивные результаты: даже для задач, требующих сильного рассуждения, таких как математика и генерация кода, производительность значительно улучшается. Потому что модели больше не нужно отвлекать свои вычислительные мощности на «зубрежку». Исследования показывают, что Engram-27B улучшается на 5.0 пунктов в задачах рассуждения BigBench Hard и на 3.0 пункта в генерации кода HumanEval по сравнению с чистым базовым уровнем MoE.

Что еще более важно, архитектура Engram поддерживает хранение «базы знаний» из сотен миллиардов параметров в дешевой памяти CPU, с потерей пропускной способности менее 3% во время инференса. Это означает, что стоимость корпоративного развертывания больших моделей, как ожидается, будет значительно снижена, больше не полагаясь полностью на дорогую VRAM GPU.

От шума в сообществе до ожиданий индустрии

Обсуждение утечки кода Model1 продолжается уже несколько дней в разделе MachineLearning на Reddit и Hacker News. Разработчики анализируют последние коммиты на GitHub построчно, пытаясь собрать полную картину V4 из изменений кода.

«Это типичный стиль DeepSeek — без чрезмерных маркетинговых тизеров, пусть код говорит сам за себя», — прокомментировал старший разработчик на техническом форуме. Этот подход «говорить технологиями» вместо этого накопил более сильное доверие и ожидания в технологическом сообществе.

От успеха open source R1 до импульса V4, DeepSeek устанавливает новую парадигму открытого исходного кода: до официального релиза, через постепенные обновления кодовой базы, позволить сообществу участвовать и адаптироваться заранее. Эта стратегия не только снижает порог принятия новых моделей, но и создает уникальную атмосферу совместного строительства сообществом.

Повторение успешной стратегии «Запуска в Праздник Весны»

DeepSeek, похоже, хорошо знаком с золотым правилом «Запуска в Праздник Весны». В прошлом году R1 была выпущена во время Лунного Нового года, воспользовавшись относительно свободным временем разработчиков по всему миру, чтобы быстро сформировать вирусное распространение в сообществе open source.

Этот выбор времени полон стратегических соображений: избегание плотного графика релизов западных технологических гигантов и занятие доминирующего положения в относительно спокойном цикле технических новостей. В то же время у разработчиков и исследователей больше свободного времени во время Праздника Весны, и они более охотно глубоко тестируют и изучают новые модели, формируя тем самым более глубокое сарафанное радио в сообществе.

С постоянными обновлениями кода Model1 читатели, которые хотят получать последние новости и глубокую интерпретацию DeepSeek V4, могут продолжать следить за отчетами на deepseekv4.app. Этот независимый сайт отслеживания организовал полную цепочку информации от утечек кода до технического анализа, став предпочтительным каналом для многих разработчиков для получения прогресса V4.

От R1 до V4, DeepSeek всегда доказывал одно: настоящая инновация заключается не только в масштабе модели, но и в идеальном сочетании архитектурной мудрости и духа открытого исходного кода. Когда код Model1 тихо распространяется на GitHub, мы видим не только рождение новой модели, но и открытие новой парадигмы. В этот Лунный Новый год мир ИИ с открытым исходным кодом может приветствовать еще один крупный прорыв.

Share:
All Posts

Author

avatar for DeepSeek UIO
DeepSeek UIO

Table of Contents

Релиз DeepSeek V4 в Open Source неизбежен!Техническая дань уважения первой годовщине Open SourceEngram: «Плагин памяти», меняющий правила игрыОт шума в сообществе до ожиданий индустрииПовторение успешной стратегии «Запуска в Праздник Весны»

More Posts

OpenAI запускает флагман GPT-5.4: 2 млн контекста + нативные агенты для блокировки DeepSeek V4!

OpenAI запускает флагман GPT-5.4: 2 млн контекста + нативные агенты для блокировки DeepSeek V4!

OpenAI внезапно представила свою самую мощную флагманскую модель GPT-5.4 с 1 миллионми нативного контекста и движком агентов, стремясь создать технологический барьер перед выходом DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/06
Весь интернет ждет выхода DeepSeek V4 – почему «блюдо» до сих пор не подано? Правда может быть куда серьезнее, чем вы думаете!

Весь интернет ждет выхода DeepSeek V4 – почему «блюдо» до сих пор не подано? Правда может быть куда серьезнее, чем вы думаете!

Почему DeepSeek V4 пропустил запуск 2 марта? Раскрываем три стратегические причины задержки: миграция на отечественную вычислительную базу, мультимодальный флагман и стратегическое окно релиза.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/05
Война легких моделей: GPT-5.3 Instant и Gemini 3.1 Flash-Lite вступают в бой — как DeepSeek V4 сохраняет лидерство?
DeepSeek V4News

Война легких моделей: GPT-5.3 Instant и Gemini 3.1 Flash-Lite вступают в бой — как DeepSeek V4 сохраняет лидерство?

С одновременным выпуском GPT-5.3 Instant и Gemini 3.1 Flash-Lite от OpenAI и Google рынок легких моделей снова закипает. Анализ влияния этих моделей на экосистемы агентов, такие как OpenClaw, и конкурентные преимущества DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/04

Новостная рассылка

Присоединяйтесь к сообществу

Подпишитесь на нашу рассылку для получения последних новостей и обновлений

DeepSeek v4DeepSeek v4

ИИ для программирования следующего поколения с архитектурой памяти Engram.

TwitterX (Twitter)Email
Продукт
  • Функции
  • Память Engram
  • MHC
  • OCR 2 Зрение
  • Нативное Рассуждение
  • Молниеносный Индексатор
Ресурсы
  • Новости и утечки
  • Песочница
  • FAQ
Компания
  • О нас
  • Контакты
  • Список ожидания
Юридическая информация
  • Политика использования файлов cookie
  • Политика конфиденциальности
  • Условия использования
© 2026 DeepSeek v4 Все права защищены