كنت أختبر نماذج اللغة الكبيرة مؤخرًا ولاحظت شيئًا غريبًا - إما أنها حذرة بشكل مبالغ فيه لدرجة أنها تصبح وعظية، أو أنها جامدة جدًا ولا تستطيع التعامل مع التفاصيل الدقيقة. بعض الردود تشعر بأنها منفصلة بشكل غريب، وكأنها تفكر بشكل مفرط في كل كلمة. ثم هناك لحظات ينهار فيها المنطق تمامًا. الأمر يشبه مشاهدة شخص يكون في نفس الوقت حذرًا جدًا وغير متوقع تمامًا. أحيانًا تكون التجربة كلها غير مريحة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 6
  • إعادة النشر
  • مشاركة
تعليق
0/400
zkNoobvip
· 12-09 18:43
أليست هذه هي المشكلة الشائعة للنماذج الكبيرة الآن، التفكير الثنائي غير المرن...
شاهد النسخة الأصليةرد0
nft_widowvip
· 12-09 11:03
هذا هو الواقع الحقيقي لنماذج اللغة الكبيرة الآن، محرج جدًا
شاهد النسخة الأصليةرد0
PonziWhisperervip
· 12-08 00:32
هذا هو العيب الشائع في النماذج الكبيرة الآن، يا إما تنصحك بشكل مصطنع، أو تكون جامدة بشكل مبالغ فيه.
شاهد النسخة الأصليةرد0
GweiWatchervip
· 12-08 00:27
هههه، هذا هو العيب الشائع في نماذج اللغة الكبيرة (LLM) الآن، يا أسود يا أبيض، ما فيه حالة وسطية.
شاهد النسخة الأصليةرد0
YieldFarmRefugeevip
· 12-08 00:26
هل أنا السيئ هنا أم أن هذه النماذج فعلاً فيها تباين شديد، مرة تكون ثرثارة ومرة تتصرف بغباء؟
شاهد النسخة الأصليةرد0
MoneyBurnervip
· 12-08 00:04
هذا الـ LLM حالياً مثل مشروع فاشل، يا إما يعلمك بطريقة جامدة ومملة، أو ينهار منطقيًا. جربت عدة منهم، وكل ما أستخدمهم أكثر أحس فيه شيء غلط.
شاهد النسخة الأصليةرد0
  • تثبيت