- Beranda
- Berita DeepSeek
- DeepSeek V4 Open Source Sudah Dekat! Basis Kode GitHub Mengungkap 'Model1' sebagai Bintang Festival Musim Semi

DeepSeek V4 Open Source Sudah Dekat! Basis Kode GitHub Mengungkap 'Model1' sebagai Bintang Festival Musim Semi
Kehebatan komunitas open source terletak pada kenyataan bahwa tidak ada pembaruan besar yang luput dari pandangan tajam para pengembang. Sama seperti DeepSeek-R1 merayakan ulang tahun pertamanya menjadi open source, jejak model andalan generasi berikutnya diam-diam muncul di repositori GitHub.
DeepSeek V4 Open Source Sudah Dekat!
Pada 21 Januari 2026, komunitas teknologi menemukan petunjuk utama di perpustakaan pengoptimalan FlashMLA milik DeepSeek—pengidentifikasi model baru bernama "Model1" muncul di komit kode terbaru. Komit ini mencakup beberapa file dan menyebutkan Model1 bersama model V3.2 saat ini, yang secara jelas menunjukkan bahwa ini adalah cabang baru yang terpisah.
Penemuan ini bertepatan dengan laporan eksklusif dari media teknologi The Information awal bulan ini—DeepSeek sedang bersiap secara intensif untuk meluncurkan model andalan generasi berikutnya, dengan nama kode V4, selama Tahun Baru Imlek pada pertengahan Februari. Dari petunjuk di komunitas open source hingga verifikasi silang oleh media otoritatif, spekulasi bahwa Model1 adalah V4 hampir merupakan kesimpulan yang pasti.
Penghormatan Teknis untuk Peringatan Satu Tahun Open Source
Tepat satu tahun yang lalu, perilisan DeepSeek-R1 membuka era baru LLM open source dan menjadi model yang paling disukai di platform Hugging Face. Sekarang, pada peringatan satu tahun R1 menjadi open source, kode untuk V4 diam-diam muncul, melanjutkan komitmen DeepSeek terhadap bidang open source.
Tidak seperti R1, yang berfokus pada kemampuan penalaran, V4 diharapkan membawa peningkatan arsitektur yang komprehensif. Menurut informasi yang bocor, V4 memiliki total 671 miliar parameter, mengadopsi arsitektur Mixture of Experts (MoE) dan teknologi Manifold Constrained Hyperconnection (mHC), dengan penambahan modul memori Engram yang berpotensi menjadi sorotan terbesarnya.
Komunitas teknologi menaruh perhatian besar pada pembaruan di repositori DeepSeek FlashMLA di GitHub, karena setiap komit dapat mengungkapkan lebih banyak detail teknis tentang V4. Dari catatan komit saat ini, para insinyur DeepSeek secara intensif mengoptimalkan mekanisme perhatian jarang (sparse attention) dan dukungan inferensi FP8, yang semuanya merupakan persiapan untuk penerapan skala besar V4.
Engram: "Plugin Memori" yang Mengubah Permainan
Yang paling dinanti adalah potensi integrasi teknologi Engram di V4, sebuah inovasi arsitektur revolusioner yang baru-baru ini dijadikan open source oleh DeepSeek. Konsep intinya adalah memisahkan "memori" dari "komputasi"—model Transformer tradisional perlu menggunakan beberapa lapisan jaringan untuk mengenali frasa tetap dan akal sehat, sementara Engram memungkinkan model untuk mengambil pengetahuan statis secara langsung melalui tabel pencarian "kamus super", membebaskan jaringan dalam untuk fokus pada penalaran yang kompleks.
Desain ini membawa hasil yang berlawanan dengan intuisi: bahkan untuk tugas-tugas yang memerlukan penalaran kuat seperti matematika dan pembuatan kode, kinerjanya meningkat secara signifikan. Karena model tidak perlu lagi mengalihkan daya komputasinya untuk "menghafal". Penelitian menunjukkan bahwa Engram-27B meningkat sebesar 5,0 poin pada tugas penalaran BigBench Hard dan 3,0 poin pada pembuatan kode HumanEval dibandingkan dengan baseline MoE murni.
Lebih penting lagi, arsitektur Engram mendukung penyimpanan "basis pengetahuan" dari ratusan miliar parameter dalam memori CPU yang murah, dengan kehilangan throughput kurang dari 3% selama inferensi. Ini berarti bahwa biaya penerapan perusahaan untuk model besar diharapkan berkurang secara signifikan, tidak lagi bergantung sepenuhnya pada VRAM GPU yang mahal.
Dari Desas-desus Komunitas hingga Ekspektasi Industri
Diskusi tentang kebocoran kode Model1 telah berlangsung selama beberapa hari di bagian MachineLearning Reddit dan Hacker News. Pengembang menganalisis komit terbaru di GitHub baris demi baris, mencoba menyusun gambaran lengkap V4 dari perubahan kode.
"Ini adalah gaya DeepSeek yang khas—tidak ada teaser pemasaran yang berlebihan, biarkan kode berbicara sendiri," komentar seorang pengembang senior di forum teknologi. Pendekatan "berbicara dengan teknologi" ini justru telah mengakumulasi kepercayaan dan ekspektasi yang lebih kuat di komunitas teknologi.
Dari kesuksesan open source R1 hingga momentum V4, DeepSeek menetapkan paradigma open source baru: sebelum rilis resmi, melalui pembaruan progresif dari basis kode, memungkinkan komunitas untuk berpartisipasi dan beradaptasi terlebih dahulu. Strategi ini tidak hanya menurunkan ambang batas adopsi untuk model baru tetapi juga menciptakan suasana unik dari konstruksi bersama komunitas.
Mereplikasi Strategi Sukses "Peluncuran Festival Musim Semi"
DeepSeek tampaknya sangat memahami aturan emas "Peluncuran Festival Musim Semi". Tahun lalu, R1 dirilis selama Tahun Baru Imlek, memanfaatkan waktu yang relatif luang dari pengembang global untuk dengan cepat membentuk penyebaran viral di komunitas open source.
Pilihan waktu ini penuh dengan pertimbangan strategis: menghindari jadwal rilis padat perusahaan teknologi Barat dan menempati posisi dominan dalam siklus berita teknologi yang relatif tenang. Pada saat yang sama, pengembang dan peneliti memiliki lebih banyak waktu luang selama Festival Musim Semi dan lebih bersedia untuk menguji secara mendalam dan mengeksplorasi model baru, sehingga membentuk penyebaran dari mulut ke mulut yang lebih dalam di komunitas.
Dengan pembaruan berkelanjutan dari kode Model1, pembaca yang ingin mendapatkan berita terbaru dan interpretasi mendalam tentang DeepSeek V4 dapat terus mengikuti laporan pelacakan di deepseekv4.app. Situs web pelacakan independen ini telah mengatur rantai informasi lengkap dari kebocoran kode hingga analisis teknis, menjadi saluran pilihan bagi banyak pengembang untuk mendapatkan kemajuan V4.
Dari R1 hingga V4, DeepSeek selalu membuktikan satu poin: inovasi sejati tidak hanya terletak pada skala model tetapi juga pada kombinasi sempurna antara kebijaksanaan arsitektur dan semangat open source. Ketika kode Model1 menyebar diam-diam di GitHub, apa yang kita lihat bukan hanya kelahiran model baru tetapi juga pembukaan paradigma baru. Tahun Baru Imlek ini, dunia AI open source mungkin menyambut terobosan besar lainnya.
Lebih Banyak Postingan

OpenAI Luncurkan GPT-5.4: Konteks 1M + Agen Native untuk Menghadang DeepSeek V4!
OpenAI secara mengejutkan merilis model unggulan terkuatnya, GPT-5.4, yang dilengkapi dengan 1 juta konteks native dan mesin agen, bertujuan membangun benteng teknologi sebelum peluncuran DeepSeek V4.


Seluruh Internet Menunggu DeepSeek V4 – Mengapa Belum Juga 'Matang'? Kebenarannya Mungkin Lebih Keras dari yang Anda Kira!
Mengapa DeepSeek V4 melewatkan jadwal 2 Maret? Ungkap tiga taruhan besar di balik penundaan ini: migrasi ke infrastruktur komputasi domestik, kapal induk multimodal, dan jendela rilis strategis.


Perang Model Ringan: GPT-5.3 Instant dan Gemini 3.1 Flash-Lite Hadir – Bagaimana DeepSeek V4 Mempertahankan Keunggulannya?
Dengan peluncuran GPT-5.3 Instant dan Gemini 3.1 Flash-Lite secara bersamaan oleh OpenAI dan Google, pasar model ringan kembali memanas. Analisis dampak pada ekosistem Agent seperti OpenClaw dan keunggulan kompetitif DeepSeek V4.

Buletin
Bergabunglah dengan Komunitas
Berlangganan buletin kami untuk berita dan pembaruan terbaru