أفضل نماذج LLM محلية للتشغيل في 2026:



بأداء عالي (24+ GB VRAM، ويفضل أن يكون لديك وحدات معالجة رسومات متعددة)

• Kimi K2 - 1T params، 37B نشط. وحش MoE
• GLM-4.7 (Z AI) - 30B-A3B MoE، SWE-bench 73.8%
• DeepSeek V3.2 - 671B / 37B نشط. لا يزال ملك المصدر المفتوح
• Qwen3 235B-A22B - نسبة جودة/تكلفة مجنونة إذا كان لديك الموارد

النطاق المتوسط (16-24 GB VRAM / RAM)

• Qwen3 30B-A3B - أداء أفضل من وزنه، مستقر على السياق الطويل
• Gemma 3 27B - أفضل إصدار مفتوح من Google حتى الآن
• Nemotron 3 Nano 30B - Math500: 91%. الأفضل في فئته إذا كنت تحتاج الرياضيات

نماذج خفيفة الوزن (8-16 GB RAM، يمكنها التشغيل بدون وحدة معالجة رسومات مخصصة)

• Qwen3 8B / 4B / 1.7B - أفضل عائلة نماذج صغيرة حالياً
• Gemma 3 4B - قادرة بشكل مفاجئ على CPU
• Phi-4 (14B) - Microsoft تفعل الكثير بقليل

مكدس الذكاء الاصطناعي المحلي يلحق فعلاً بالسحابة
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.43Kعدد الحائزين:2
    0.01%
  • القيمة السوقية:$2.45Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.48Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.49Kعدد الحائزين:2
    0.00%
  • تثبيت