- الرئيسية
- أخبار DeepSeek
- كيفية نشر DeepSeek V4 محليًا؟ متطلبات الأجهزة ودليل التثبيت

كيفية نشر DeepSeek V4 محليًا؟ متطلبات الأجهزة ودليل التثبيت
هل تريد تشغيل أقوى نموذج مفتوح المصدر محليًا؟ توضح هذه المقالة بالتفصيل متطلبات أجهزة DeepSeek V4 (احتياجات ذاكرة الفيديو VRAM) وتعليمات النشر خطوة بخطوة، بما في ذلك حلول الإصدارات الكمية.
كيفية نشر DeepSeek V4 محليًا
1. مقدمة
يعد نشر LLM المحلي هو الرومانسية المطلقة للخبراء التقنيين وأفضل ضمان لخصوصية بيانات المؤسسة. يدعم DeepSeek V4، بصفته بطل العالم مفتوح المصدر، النشر الخاص المحلي بشكل طبيعي. لكن حجم المعلمات البالغ 671 مليار ليس مزحة. ستخبرك هذه المقالة بحجم "حوض السمك" الذي تحتاجه لتناسب هذا "الحوت العملاق" في جهاز الكمبيوتر المنزلي الخاص بك.
2. متطلبات الأجهزة: هل يمكن لوحدة معالجة الرسومات الخاصة بك التعامل معها؟
DeepSeek V4 هو نموذج Mixture of Experts (MoE). على الرغم من احتوائه على عدد أقل من المعلمات النشطة، فإن تحميل الأوزان الكاملة لا يزال يتطلب ذاكرة VRAM هائلة.
الخيار أ: الإصدار الكامل (BF16 / FP16)
مناسب للمؤسسات البحثية والمتحمسين الأثرياء
- ذاكرة VRAM المطلوبة: ~1.3 تيرابايت - 1.5 تيرابايت
- التكوين الموصى به: مجموعة 16x NVIDIA A100 (80GB) أو H100
- التكلفة: عالية للغاية، غير مناسبة للأفراد.
الخيار ب: الإصدار الكمي 4 بت (موصى به بشدة)
مناسب للمتحمسين والشركات الصغيرة والمتوسطة بسبب خصائص MoE، يمكننا تحميل أوزان الخبراء النشطين فقط. إلى جانب التكميم 4 بت، تنخفض متطلبات VRAM بشكل كبير.
- ذاكرة VRAM المطلوبة: ~350 جيجابايت - 400 جيجابايت
- التكوين الموصى به: 8x RTX 4090 (24GB) أو 4x A100 (80GB)
- مستخدمو Mac: Mac Studio / Mac Pro بذاكرة موحدة 192 جيجابايت (M2/M3 Ultra) يمكنهم بالكاد تشغيل إصدارات كمية محسّنة خصيصًا.
الخيار ج: التكميم الشديد (1.58 بت / 2 بت)
للمتبنين الأوائل قد يطلق خبراء المجتمع (مثل TheBloke) إصدارات كمية للغاية.
- ذاكرة VRAM المطلوبة: من المحتمل ~150 جيجابايت
- التكوين الموصى به: 2-3 أجهزة مزودة بـ 3090/4090 مزدوجة لـ توازي الاستدلال (vLLM / llama.cpp).
3. خطوات التثبيت (إصدار ما قبل الإصدار)
يستند الدليل التالي إلى Linux (Ubuntu 22.04)، بافتراض أنك قمت بتثبيت برامج تشغيل NVIDIA و CUDA 12.x.
الخطوة 1: إعداد بيئة Python
conda create -n deepseek python=3.10
conda activate deepseek
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install vllm>=0.4.0 # يوصى باستخدام vLLM للاستدلال عالي السرعةالخطوة 2: تنزيل أوزان النموذج
يرجى الانتظار بصبر لتحديث مستودع HuggingFace. لنفترض أن اسم المستودع هو deepseek-ai/deepseek-v4-instruct.
# تثبيت git-lfs
git lfs install
# تنزيل النموذج (تأكد من وجود مساحة قرص تزيد عن 500 جيجابايت)
git clone https://huggingface.co/deepseek-ai/deepseek-v4-instruct-awqالخطوة 3: بدء خدمة الاستدلال
استخدم vLLM لبدء خدمة متوافقة مع OpenAI API:
python -m vllm.entrypoints.openai.api_server \
--model ./deepseek-v4-instruct-awq \
--trust-remote-code \
--tensor-parallel-size 8 \ # طابق عدد وحدات معالجة الرسومات لديك
--host 0.0.0.0 \
--port 8000الخطوة 4: اختبار الاستدعاء
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-instruct-awq",
"messages": [{"role": "user", "content": "مرحبًا، DeepSeek!"}]
}'4. خيارات التكميم: المفتاح لخفض الحاجز
إذا لم يكن لديك 8x 4090، فإن التكميم هو المخرج الوحيد.
قد توفر DeepSeek V4 رسميًا أوزانًا كمية بتنسيق AWQ أو GPTQ.
يوصى باستخدام llama.cpp لأنه صديق للغاية لـ Apple Silicon (Mac).
# مستخدمو Mac مع llama.cpp
./main -m deepseek-v4-q4_k_m.gguf -n 128 --n-gpu-layers 995. الأسئلة الشائعة (FAQ)
س: هل سيتعطل إذا كانت ذاكرة VRAM غير كافية؟ ج: نعم. OOM (نفاد الذاكرة) أمر شائع. إذا كانت ذاكرة VRAM غير كافية، فلن يبدأ vLLM حتى. احسب إجمالي ذاكرة VRAM بدقة.
س: ماذا لو كانت سرعة الاستدلال بطيئة؟ ج: في استدلال وحدات معالجة الرسومات المتعددة، يكون الاتصال بين البطاقات (NVLink/PCIe) هو عنق الزجاجة. استخدم اللوحات الأم التي تدعم NVLink إن أمكن، أو انتقل مباشرة إلى معدات فئة الخادم.
س: هل يمكنني تشغيله على وحدة المعالجة المركزية (CPU)؟
ج: نظريًا يدعم llama.cpp وحدة المعالجة المركزية، ولكن بالنسبة لنموذج بمعلمات 671 مليار، قد يستغرق إنشاء حرف واحد دقائق - ليس له قيمة عملية.
ملاحظة: يرجى الرجوع إلى README الرسمي للحصول على معلمات التكوين المحددة.
المؤلف

جدول المحتويات
المزيد من المشاركات

إطلاق GPT-5.4 من OpenAI: سياق 1 مليون + عملاء أصليون لعرقلة DeepSeek V4!
أطلقت OpenAI بشكل مفاجئ نموذجها الرائد الأقوى GPT-5.4، المزود بسياق أصلي يصل إلى 1 مليون ومحرك عملاء، بهدف بناء حصن تقني قبل إصدار DeepSeek V4.


الجميع ينتظر إطلاق DeepSeek V4، فلماذا لم تُفتح «القدر» بعد؟ الحقيقة قد تكون أكثر تعقيداً مما تظن!
لماذا لم تلتزم DeepSeek V4 بموعد 2 مارس؟ نكشف الرهانات الثلاثة الكبرى وراء التأخير: الانتقال إلى البنية التحتية للحوسبة المحلية، الرائد متعدد الوسائط، ونافذة الإطلاق الاستراتيجية.


حرب النماذج الخفيفة: GPT-5.3 Instant و Gemini 3.1 Flash-Lite يدخلان الساحة - كيف يحافظ DeepSeek V4 على الصدارة؟
مع إصدار OpenAI و Google لنماذج GPT-5.3 Instant و Gemini 3.1 Flash-Lite في نفس اليوم، يشتعل سوق النماذج الخفيفة. تحليل تأثيرها على أنظمة الـ Agents مثل OpenClaw ومزايا DeepSeek V4.

النشرة الإخبارية
انضم إلى المجتمع
اشترك في نشرتنا الإخبارية للحصول على أحدث الأخبار والتحديثات