DeepSeek v4
DeepSeek v4Beta
  • Fitur
  • Berita & Kebocoran
  • Playground
  • FAQ
  1. Beranda
  2. Berita DeepSeek
  3. Arsitektur DeepSeek Engram Dijelaskan: Apa yang Kita Butuhkan Selain MoE?
Arsitektur DeepSeek Engram Dijelaskan: Apa yang Kita Butuhkan Selain MoE?
2026/02/02

Arsitektur DeepSeek Engram Dijelaskan: Apa yang Kita Butuhkan Selain MoE?

Share:
Selami mekanisme memori baru 'Engram' DeepSeek V4. Bagaimana cara kerjanya memungkinkan pengambilan pengetahuan O(1) seperti pencarian kamus, membebaskan komputasi saraf untuk penalaran logis yang kompleks?

DeepSeek Engram: Menembus Batas MoE, Membuka Era "Memori Bersyarat"

2 Februari 2026 | Pendalaman Teknis

Di antara banyak rumor tentang DeepSeek V4, selain kemampuan pengkodeannya yang mencengangkan, yang paling membuat para geek bersemangat adalah komponen baru yang misterius itu — Engram.

Hari ini, dengan peluncuran diam-diam repositori deepseek-ai/Engram dan rilis makalah Conditional Memory via Scalable Lookup, akhirnya kita bisa melihatnya sekilas.

Jika ini bukan hanya "satu lagi MoE yang lebih besar", masalah apa yang dipecahkan Engram?

1. Titik Nyeri: LLM Tidak Boleh Hanya "Berpikir", Tetapi Juga "Mengingat"

Transformer tradisional seperti jenius yang sangat cerdas tanpa buku catatan. Tidak peduli seberapa sederhana pengetahuannya (misalnya, "Apa ibu kota Paris?"), mereka harus menggunakan komputasi saraf yang mahal (Attention dan MLP) untuk "menghitungnya".

Ini membawa dua masalah:

  1. Pemborosan Komputasi: Menggunakan komputasi GPU untuk mengingat fakta statis seperti menggunakan superkomputer untuk mencari di kamus — berlebihan.
  2. Kemacetan Kapasitas: Parameter model bertanggung jawab atas "penalaran logis" dan "penyimpanan pengetahuan". Ketika kita menginginkan model yang lebih besar, kita hanya dapat menumpuk lebih banyak ahli MoE, tetapi ini secara signifikan meningkatkan penggunaan VRAM dan biaya pelatihan.

Jawaban DeepSeek adalah: Pisahkan "Pengetahuan" dan "Penalaran".

2. Apa itu Engram?

Sederhananya, Engram adalah kamus super eksternal berbasis tabel.

Sebelum jaringan saraf menghitung, modul Engram bekerja terlebih dahulu:

  1. Ia mengamati teks input saat ini (N-gram).
  2. Ia melakukan pencarian kompleksitas O(1) dalam tabel statis yang sangat besar.
  3. Vektor yang diambil (Memori) langsung disuntikkan ke tulang punggung model.

Analogi: Model sebelumnya: Menemukan kata baru, menggunakan kekuatan otak untuk menebak maknanya (mengonsumsi kekuatan otak). Model saat ini: Menemukan kata baru, periksa kamus terlebih dahulu, dan ambil definisi untuk berpikir (kekuatan otak hanya digunakan untuk memahami konteks).

3. Arsitektur Inti: Hukum Skala Berbentuk U (U-Shaped Scaling Law)

Bagian paling menarik dari makalah ini adalah diskusi tentang "Alokasi Kelangkaan". DeepSeek menemukan Hukum Skala Berbentuk U:

Mengingat total komputasi (FLOPs) dan jumlah parameter tetap:

  • Jika semua ditugaskan ke MoE (komputasi murni), model menjadi bodoh karena memori tidak mencukupi.
  • Jika semua ditugaskan ke Engram (memori murni), model menjadi bodoh karena kemampuan penalaran tidak mencukupi.

DeepSeek V4 (Engram-27B) menemukan titik keseimbangan yang sempurna itu.

Dengan memperkenalkan Engram, V4 berhasil:

  1. Membebaskan lapisan dangkal: Analisis Mekanistik menunjukkan bahwa lapisan dangkal tidak perlu lagi berjuang untuk merekonstruksi pola bahasa sederhana; mereka hanya bisa "mencari" di tabel.
  2. Memperdalam kedalaman efektif: Karena lapisan dangkal dihemat, lapisan dalam dapat lebih fokus pada penalaran matematika yang kompleks dan logika kode. Inilah sebabnya mengapa kemampuan pengkodean V4 (HumanEval+) meroket.

4. Mengapa Ini Penting bagi Pengembang?

  1. Penyebaran Lokal Lebih Ramah: Pencarian Engram bersifat deterministik, mendukung Efisiensi Sadar Infrastruktur. Ini berarti "tabel memori" besar ini dapat ditempatkan di RAM Sistem yang murah, tanpa menempati VRAM yang berharga.

    • Prediksi: GPU konsumen masa depan dengan VRAM 16GB, dipasangkan dengan RAM sistem 64GB, akan dapat menjalankan model Engram parameter yang sangat besar.
  2. Potensi Konteks Tak Terbatas: Meskipun Engram sendiri adalah pencarian N-gram, pendekatan "memori eksternal" ini memberikan solusi baru untuk menangani Konteks tingkat juta — tidak perlu memasukkan setiap Token ke dalam KV Cache, tetapi mengambil sesuai permintaan.

5. Ringkasan

DeepSeek V4 tidak hanya "menumpuk" parameter, tetapi melakukan operasi pada efisiensi arsitektur. Munculnya Engram menandai evolusi model besar dari "jaringan saraf" tunggal menjadi arsitektur hibrida "jaringan + simbolik".

Bagi kami pengembang yang menunggu bobot V4, berita terbaiknya adalah: DeepSeek masih bersikeras pada open source.


Referensi:

  • Makalah: Conditional Memory via Scalable Lookup
  • GitHub: deepseek-ai/Engram
Share:
Semua Postingan

Penulis

avatar for DeepSeek UIO
DeepSeek UIO

Daftar Isi

DeepSeek Engram: Menembus Batas MoE, Membuka Era "Memori Bersyarat"1. Titik Nyeri: LLM Tidak Boleh Hanya "Berpikir", Tetapi Juga "Mengingat"2. Apa itu Engram?3. Arsitektur Inti: Hukum Skala Berbentuk U (U-Shaped Scaling Law)4. Mengapa Ini Penting bagi Pengembang?5. Ringkasan

Lebih Banyak Postingan

OpenAI Luncurkan GPT-5.4: Konteks 1M + Agen Native untuk Menghadang DeepSeek V4!

OpenAI Luncurkan GPT-5.4: Konteks 1M + Agen Native untuk Menghadang DeepSeek V4!

OpenAI secara mengejutkan merilis model unggulan terkuatnya, GPT-5.4, yang dilengkapi dengan 1 juta konteks native dan mesin agen, bertujuan membangun benteng teknologi sebelum peluncuran DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/06
Seluruh Internet Menunggu DeepSeek V4 – Mengapa Belum Juga 'Matang'? Kebenarannya Mungkin Lebih Keras dari yang Anda Kira!

Seluruh Internet Menunggu DeepSeek V4 – Mengapa Belum Juga 'Matang'? Kebenarannya Mungkin Lebih Keras dari yang Anda Kira!

Mengapa DeepSeek V4 melewatkan jadwal 2 Maret? Ungkap tiga taruhan besar di balik penundaan ini: migrasi ke infrastruktur komputasi domestik, kapal induk multimodal, dan jendela rilis strategis.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/05
Perang Model Ringan: GPT-5.3 Instant dan Gemini 3.1 Flash-Lite Hadir – Bagaimana DeepSeek V4 Mempertahankan Keunggulannya?
DeepSeek V4News

Perang Model Ringan: GPT-5.3 Instant dan Gemini 3.1 Flash-Lite Hadir – Bagaimana DeepSeek V4 Mempertahankan Keunggulannya?

Dengan peluncuran GPT-5.3 Instant dan Gemini 3.1 Flash-Lite secara bersamaan oleh OpenAI dan Google, pasar model ringan kembali memanas. Analisis dampak pada ekosistem Agent seperti OpenClaw dan keunggulan kompetitif DeepSeek V4.

avatar for DeepSeek UIO
DeepSeek UIO
2026/03/04

Buletin

Bergabunglah dengan Komunitas

Berlangganan buletin kami untuk berita dan pembaruan terbaru

DeepSeek v4DeepSeek v4

AI Coding Generasi Berikutnya dengan Arsitektur Memori Engram.

TwitterX (Twitter)Email
Produk
  • Fitur
  • Memori Engram
  • MHC
  • Visi OCR 2
  • Penalaran Asli
  • Pengindeks Petir
Sumber Daya
  • Berita & Kebocoran
  • Playground
  • FAQ
Perusahaan
  • Tentang
  • Kontak
  • Daftar Tunggu
Hukum
  • Kebijakan Cookie
  • Kebijakan Privasi
  • Ketentuan Layanan
© 2026 DeepSeek v4 Hak Cipta Dilindungi Undang-Undang