- Ana Sayfa
- DeepSeek Haberleri
- DeepSeek Engram Mimarisi Açıklandı: MoE Dışında Neye İhtiyacımız Var?

DeepSeek Engram Mimarisi Açıklandı: MoE Dışında Neye İhtiyacımız Var?
DeepSeek V4'ün yeni 'Engram' bellek mekanizmasına derinlemesine bir bakış. Sözlük araması gibi O(1) bilgi erişimini nasıl mümkün kılıyor ve karmaşık mantıksal akıl yürütme için sinirsel hesaplamayı nasıl serbest bırakıyor?
DeepSeek Engram: MoE Sınırlarını Aşmak, "Koşullu Bellek" Çağını Açmak
2 Şubat 2026 | Teknik Derinlemesine İnceleme
DeepSeek V4 hakkındaki birçok söylentinin yanı sıra, dudak uçuklatan kodlama yeteneklerinin dışında, meraklıları en çok heyecanlandıran şey o gizemli yeni bileşen — Engram.
Bugün, deepseek-ai/Engram deposunun sessizce başlatılması ve Conditional Memory via Scalable Lookup makalesinin yayınlanmasıyla, nihayet ona bir göz atabiliyoruz.
Sadece "daha büyük bir MoE" değilse, Engram hangi sorunu çözüyor?
1. Ağrı Noktası: Yüksek Lisanslar Sadece "Düşünmemeli", Aynı Zamanda "Hatırlamalı"
Geleneksel Transformatörler, not defterleri olmayan son derece zeki dahiler gibidir. Bilgi ne kadar basit olursa olsun (örneğin, "Paris'in başkenti neresidir?"), bunu "hesaplamak" için pahalı sinirsel hesaplama (Dikkat ve MLP) kullanmaları gerekir.
Bu iki sorunu beraberinde getirir:
- Hesaplama İsrafı: Statik gerçekleri hatırlamak için GPU hesaplamasını kullanmak, bir sözlüğe bakmak için süper bilgisayar kullanmak gibidir — aşırıya kaçmaktır.
- Kapasite Darboğazı: Model parametreleri hem "mantıksal akıl yürütme" hem de "bilgi depolama"dan sorumludur. Daha büyük bir model istediğimizde, yalnızca daha fazla MoE uzmanı yığabiliriz, ancak bu VRAM kullanımını ve eğitim maliyetlerini önemli ölçüde artırır.
DeepSeek'in cevabı şudur: "Bilgi" ve "Akıl Yürütme"yi ayırın.
2. Engram Nedir?
Basitçe söylemek gerekirse, Engram harici, tablo tabanlı bir süper sözlüktür.
Sinir ağı hesaplama yapmadan önce, Engram modülü önce çalışır:
- Mevcut giriş metnini (N-gram) gözlemler.
- Büyük, statik bir tabloda
O(1)karmaşıklığında bir arama gerçekleştirir. - Alınan vektör (Bellek) doğrudan modelin omurgasına enjekte edilir.
Analoji: Önceki modeller: Yeni bir kelimeyle karşılaşır, anlamı tahmin etmek için beyin gücünü kullanır (beyin gücü tüketir). Mevcut model: Yeni bir kelimeyle karşılaşır, önce sözlüğü kontrol eder ve düşünmek için tanımı alır (beyin gücü yalnızca bağlamı anlamak için kullanılır).
3. Çekirdek Mimari: U-Şekilli Ölçekleme Yasası (U-Shaped Scaling Law)
Makalenin en heyecan verici kısmı "Seyreklik Tahsisi" üzerine yapılan tartışmadır. DeepSeek bir U-Şekilli Ölçekleme Yasası keşfetti:
Sabit toplam hesaplama (FLOPs) ve parametre sayısı verildiğinde:
- Hepsi MoE'ye (saf hesaplama) atanırsa, bellek yetersiz olduğu için model aptallaşır.
- Hepsi Engram'a (saf bellek) atanırsa, akıl yürütme yeteneği yetersiz olduğu için model aptallaşır.
DeepSeek V4 (Engram-27B) o mükemmel denge noktasını buldu.
Engram'ı tanıtarak, V4 başarılı bir şekilde:
- Sığ katmanları serbest bıraktı: Mekanistik Analiz, sığ katmanların artık basit dil kalıplarını yeniden oluşturmak için mücadele etmelerine gerek olmadığını gösteriyor; sadece tabloya "bakabilirler".
- Etkili derinliği derinleştirdi: Sığ katmanlar kurtarıldığı için, derin katmanlar karmaşık matematiksel akıl yürütme ve kod mantığına daha fazla odaklanabilir. V4'ün kodlama yeteneğinin (HumanEval+) fırlamasının nedeni budur.
4. Bu Geliştiriciler İçin Neden Önemli?
-
Daha Dostça Yerel Dağıtım: Engram'ın araması deterministiktir ve Altyapı Farkındalıklı Verimliliği destekler. Bu, bu devasa "bellek tablosunun", değerli VRAM'i işgal etmeden ucuz Sistem RAM'ine yerleştirilebileceği anlamına gelir.
- Tahmin: 64 GB sistem RAM'i ile eşleştirilmiş 16 GB VRAM'e sahip gelecekteki tüketici GPU'ları, son derece büyük parametreli Engram modellerini çalıştırabilecektir.
-
Sonsuz Bağlam Potansiyeli: Engram'ın kendisi N-gram araması olsa da, bu "harici bellek" yaklaşımı, milyon seviyesindeki Bağlamı işlemek için yeni bir çözüm sunar — her Belirteci KV Önbelleğine doldurmaya gerek yoktur, ancak talep üzerine geri getirilir.
5. Özet
DeepSeek V4 sadece parametreleri "istiflemiyor", aynı zamanda mimari verimlilik üzerinde ameliyat yapıyor. Engram'ın görünümü, büyük modellerin tek "sinir ağlarından" "sinirsel + sembolik" hibrit mimarilere evrimini işaret ediyor.
Biz V4 ağırlıklarını bekleyen geliştiriciler için en iyi haber: DeepSeek hala açık kaynak konusunda ısrar ediyor.
Referanslar:
Yazar

Daha fazla yazı

OpenAI Amiral Gemisi GPT-5.4 Çıktı: 1M Bağlam + DeepSeek V4'ü Durdurmak İçin Yerleşik Agentlar!
OpenAI, 1 milyon yerleşik bağlam ve agent motoruyla donatılmış en güçlü amiral gemisi modeli GPT-5.4'ü sürpriz bir şekilde yayınladı. Hedef, DeepSeek V4 lansmanı öncesi teknolojik bir kale inşa etmek.


Tüm internet DeepSeek V4’ün çıkışını bekliyor – Neden hâlâ 'kapak' açılmadı? Gerçek sandığınızdan daha sert olabilir!
DeepSeek V4 neden 2 Mart randevusunu kaçırdı? Gecikmenin ardındaki üç büyük stratejik sebebi açıklıyoruz: Yerli hesaplama altyapısına geçiş, çok modlu amiral gemisi ve stratejik yayın penceresi.


Hafif Model Savaşı: GPT-5.3 Instant ve Gemini 3.1 Flash-Lite Sahneye Çıkıyor – DeepSeek V4 Liderliğini Nasıl Koruyor?
OpenAI ve Google'ın aynı gün GPT-5.3 Instant ve Gemini 3.1 Flash-Lite'ı yayınlamasıyla hafif model pazarı kızışıyor. Bu modellerin OpenClaw gibi Agent ekosistemleri üzerindeki etkisi ve DeepSeek V4'ün avantajları.

Bülten
Topluluğa Katılın
En son haberler ve güncellemeler için bültenimize abone olun