العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
Stratechery تطيح بنظرية فقاعة الذكاء الاصطناعي، ماذا يجب أن نفعل بالذكاء الاصطناعي؟
العنوان الأصلي: الوكيل فوق الفقاعات
المؤلف الأصلي: بن تومسون، ستراتشيري
الترجمة: بيغي، BlockBeats
المؤلف الأصلي: بلوكبييتس
المصدر الأصلي:
إعادة النشر: مارس فاينانس
مقدمة المحرر: في ظل استمرار ارتفاع وتيرة استثمار الذكاء الاصطناعي وسرديات الصناعة، أصبح سؤال “هل هناك فقاعة” محور النقاش المتكرر في السوق. من ناحية، تعزز سرديات المخاطر القصوى مخاوف الناس من فقدان السيطرة على التكنولوجيا؛ ومن ناحية أخرى، فإن التوسع السريع في الإنفاق الرأسمالي ومستويات التقييم يجعل “نظرية الفقاعة” دائمًا حاضرة. في ظل هذا الاختلاف، تظهر الأحكام السوقية بوضوح عدم اليقين.
المؤلف بن تومسون هو مؤسس منصة التحليل التكنولوجي ستراتشيري، ويولي اهتمامًا طويل الأمد لبنية الصناعة التكنولوجية وتطور نماذج الأعمال. مع انعقاد مؤتمر GTC 2026 لشركة إنفيديا، عدل حكمه السابق حول “هل الذكاء الاصطناعي في فقاعة”: لم يعد يراه فقاعة، بل يُفهم على أنه نمو هيكلي مدفوع بتغيرات في النموذج التكنولوجي.
هذا الحكم يعتمد على ملاحظته لثلاث قفزات رئيسية في تطور نماذج اللغة الكبيرة (LLMs). منذ أن عرضت ChatGPT قدرات النموذج اللغوي الضخم لأول مرة في السوق عام 2022، تطورت LLMs من “متاحة ولكن غير موثوقة” إلى “تتمتع بقدرة على الاستنتاج”، ثم إلى “قادرة على تنفيذ المهام بشكل مستقل”. خاصة في نهاية 2025، مع إصدار Anthropic Opus 4.5 وOpenAI GPT-5.2-Codex، بدأت أعباء الوكيل (agentic workloads) تتجاوز المفهوم إلى الواقع.
المفتاح هنا ليس في النموذج نفسه، بل في ظهور “مُسَخِّر الوكيل” (agent harness). الوكيل يفصل بين المستخدم والنموذج، ويتولى جدولة النموذج، واستدعاء الأدوات، والتحقق من النتائج، مما يحول الذكاء الاصطناعي من أداة تتطلب تدخلًا بشريًا مستمرًا إلى نظام تنفيذ يمكن الاعتماد عليه في المهام. هذا التغيير لا يعزز فقط الموثوقية، بل يوسع أيضًا حدود تطبيقات الذكاء الاصطناعي.
استنادًا إلى هذا التحول في النموذج، يشير المؤلف إلى أن توسع الطلب على الذكاء الاصطناعي لم يعد يعتمد على حجم المستخدمين، بل على قدرة الوحدة على إدارة الجدولة؛ كما أن أعباء العمل الوكيلية تتميز بخصائص “الفائز يأخذ كل شيء”، مما يرفع الطلب على الحوسبة عالية الأداء، ويخلق فرصًا هيكلية لمصنعي الشرائح ومزودي خدمات السحابة.
في هذا الإطار، لم تعد الإنفاقات الرأسمالية الضخمة الحالية مجرد رهانات مضاربة على المستقبل، بل تعكس بشكل أكبر الطلب الحقيقي. ومع انتقال الذكاء الاصطناعي من “أداة مساعدة” إلى “بنية تحتية تنفيذية”، قد يكون تأثيره الاقتصادي قد بدأ للتو في الظهور.
وفيما يلي النص الأصلي:
في الماضي، كنت أميل أكثر إلى الرأي الثاني، وحتى أعتقد أن الفقاعة في بعض المراحل ليست بالضرورة شيئًا سيئًا.
لكن الآن، مع اقتراب مؤتمر GTC 2026 لشركة إنفيديا، تغيرت قناعتي: ليست بالضرورة فقاعة. (ومن المفارقات أن هذا الحكم نفسه قد يكون إشارة على وجود الفقاعة بالذات.)
ثلاث قفزات في نماذج اللغة الكبيرة (LLMs)
خلال الأسابيع الماضية، أثناء مناقشتي للأرباح المالية لشركتي إنفيديا وأوراكل، تكررت إشارة إلى أن LLMs شهدت ثلاث قفزات رئيسية.
المرحلة الأولى: ChatGPT
أول نقطة تحول كانت في نوفمبر 2022 مع إصدار ChatGPT، وهو أمر لا يحتاج إلى شرح. على الرغم من أن نماذج اللغة الكبيرة المبنية على Transformer ظهرت منذ 2017، وكانت قدراتها تتطور باستمرار، إلا أنها كانت تُقدّر بشكل منخفض. حتى في أكتوبر 2022، خلال مقابلة لي على ستراتشيري، اعتقدت أن هذه التقنية، رغم روعة أدائها، تفتقر إلى القدرة على التسييل وخلق روح المبادرة.
لكن بعد بضعة أسابيع، انقلبت الأمور تمامًا. جعلت ChatGPT العالم يدرك لأول مرة قدرات LLM بشكل حقيقي.
ومع ذلك، فإن النسخ المبكرة تركت انطباعين عميقين، وتكررت الإشارة إليهما من قبل “مُشَكِّكي الفقاعة”:
الأول، أن النموذج غالبًا يخطئ، وحتى عندما لا يعرف الإجابة، فإنه يختلق “هلوسة”. هذا جعله أكثر شبهاً بأداة “تفاخرية”، مدهشة ولكن غير موثوقة.
الثاني، على الرغم من ذلك، فهو لا يزال مفيدًا جدًا، بشرط أن تعرف كيف تستخدمه، وأن تواصل التحقق من المخرجات وتصحيح الأخطاء.
المرحلة الثانية: o1
النقطة التحولية الثانية كانت في سبتمبر 2024 مع إصدار OpenAI لنموذج o1. حينها، تحسنت LLMs بشكل ملحوظ بفضل نماذج أساسية وتقنيات تدريب لاحقة، وأصبحت المخرجات أدق وأقل هلوسة.
لكن الاختراق الرئيسي في o1 هو: أنه يبدأ بـ “التفكير” قبل الإجابة.
نماذج LLM التقليدية تعتمد على الاعتماد على المسار، وإذا أخطأت أثناء الاستنتاج، فإن الخطأ يتكرر طوال الطريق. هذه نقطة ضعف أساسية في “نماذج التتابع التلقائي”. أما نماذج الاستنتاج، فهي تقوم بتقييم إجاباتها ذاتيًا، حيث تولد الإجابة أولاً، ثم تقيّم صحتها، وتحاول مسارات أخرى إذا لزم الأمر.
هذا يعني أن النموذج بدأ يدير الأخطاء بشكل نشط، ويقلل من عبء التدخل البشري. والنتيجة كانت واضحة جدًا. إذا كانت قفزة ChatGPT تتعلق بـ “جعل LLMs متاحة”، فإن قفزة o1 تتعلق بـ “جعل LLMs موثوقة”.
المرحلة الثالثة: الوكيل (Agent) (Opus 4.5 / Codex)
في نهاية 2025، حدثت القفزة الثالثة.
في نوفمبر 2025، أطلقت Anthropic نموذج Opus 4.5، وكان رد الفعل عليه محدودًا في البداية. لكن في ديسمبر، أظهر Claude Code، الذي يعتمد على هذا النموذج، قدرات غير مسبوقة؛ وفي الوقت نفسه، أطلقت OpenAI GPT-5.2-Codex، الذي أظهر مستوى مشابهًا.
لطالما كانت فكرة “الوكيل” موضوع حديث، لكن في تلك اللحظة، بدأوا أخيرًا في إتمام المهام بشكل حقيقي، حتى المهام المعقدة التي تستغرق ساعات، وتتم بشكل صحيح.
المفتاح ليس في النموذج نفسه، بل في طبقة التحكم (harness)، وهي طبقة البرمجيات التي تتولى جدولة النموذج، واستدعاء الأدوات، وتنفيذ العمليات. بمعنى آخر، لم يعد المستخدم يتفاعل مباشرة مع النموذج، بل يحدد الهدف، ويقوم الوكيل بتوجيه النموذج، واستدعاء الأدوات، وتنفيذ العمليات، والتحقق من النتائج.
كمثال على البرمجة:
· المرحلة الأولى: النموذج يولد الكود
· المرحلة الثانية: النموذج أثناء التوليد يقوم بالاستنتاج
· المرحلة الثالثة: الوكيل يولد الكود → يختبره تلقائيًا → ينفذه بشكل تلقائي → إذا أخطأ، يعيد المحاولة، دون تدخل مستمر من المستخدم.
هذا يعني أن العيب الأساسي في عصر ChatGPT يتم حله بشكل منهجي، مع زيادة الدقة، وتحسين قدرات الاستنتاج، وآليات التحقق التلقائي.
السؤال الوحيد المتبقي هو: ماذا نستخدمه تحديدًا؟
لقد كررت التأكيد على هذه النقاط الثلاث لأنها تشرح لماذا يزداد الطلب بشكل كبير على الحوسبة، ولماذا الإنفاق الرأسمالي الضخم على نطاق واسع هو أمر مبرر.
ثلاث نماذج من التفاعل مع الحوسبة، تختلف تمامًا في متطلبات الحوسبة:
· المرحلة الأولى: تدريب يتطلب حوسبة عالية، لكن استنتاج سريع
· المرحلة الثانية: تكاليف الاستنتاج ترتفع بشكل كبير (المزيد من الرموز + تكرار الاستخدام)
· المرحلة الثالثة (الوكيل): استدعاءات متعددة لنماذج الاستنتاج، واستهلاك الوكيل نفسه للحوسبة (حتى يميل إلى المعالجات المركزية)، وزيادة في تكرار الاستخدام
لكن الأهم هو النقطة الثالثة: تغير هيكل الطلبات تم التقليل من شأنه بشكل كبير.
حاليًا، عدد مستخدمي روبوتات الدردشة يفوق بكثير عدد مستخدمي الوكيل، والكثير من الناس لا يستخدمون الذكاء الاصطناعي بشكل كامل. السبب هو أن استخدام الذكاء الاصطناعي يتطلب “مبادرة”. LLM هو أداة، لا يملك هدفًا أو إرادة، ولا يمكن استدعاؤه إلا بشكل نشط.
لكن الوكيل غير ذلك، فهو يقلل من متطلبات المبادرة البشرية. في المستقبل، يمكن لشخص أن يدير عدة وكلاء في آن واحد.
وهذا يعني أنه حتى لو كان عدد قليل من الناس يمتلكون “مبادرة”، فإن ذلك يكفي لدفع الطلب على الحوسبة والإنتاجية بشكل هائل.
الذكاء الاصطناعي لا يزال يحتاج إلى “قيادة بشرية”، لكنه لم يعد بحاجة إلى “الكثير من الناس”.
الاستعدادات الاستهلاكية للدفع مقابل الذكاء الاصطناعي محدودة، وهذا أصبح واضحًا تدريجيًا. الشركات هي التي ستدفع مقابل زيادة الإنتاجية.
أكثر ما يثير حماس الشركات هو أن الذكاء الاصطناعي لا يرفع الكفاءة فحسب، بل يمكن أن يحل محل البشر بشكل أكثر كفاءة.
الحقيقة الحالية أن الشركات الكبرى غالبًا ما يدفعها عدد قليل من الأفراد لدفع الأعمال قدمًا؛ لكن التنظيم كبير جدًا، ويؤدي إلى تكاليف تنسيق عالية. وظيفة الوكيل هي توسيع تأثير “الذين يدفعون القيمة”، وتقليل الاحتكاك التنظيمي.
النتيجة: “عدد أقل من الأشخاص → إنتاجية أعلى → تكاليف أقل”. ولهذا، من المحتمل أن تكون عمليات التسريح في المستقبل ليست مجرد “تعديلات دورية”، بل تحول هيكلي.
الشركات ستعيد التفكير، ليس فقط في ما إذا كانت “توظيف المزيد من الناس خلال الجائحة”، بل أيضًا في ما إذا كنا في عصر الذكاء الاصطناعي، لا نحتاج إلى هذا العدد الكبير من الناس أصلاً.
لماذا ليست فقاعة؟
من هذا المنظور، من الواضح أن المنطق الذي يقول “ليست فقاعة” هو:
العيوب الأساسية في LLMs تُحل باستمرار من خلال الحوسبة والبنى التحتية
حاجز الطلب يتراجع مع تزايد عدد المستخدمين
الفوائد التي يجلبها الوكيل ليست فقط تقليل التكاليف، بل زيادة الإيرادات أيضًا
لذا، من السهل فهم سبب حديث جميع مزودي خدمات السحابة عن نقص في الحوسبة، واستمرارهم في زيادة الإنفاق الرأسمالي بشكل كبير.
الوكيل وإعادة تشكيل سلسلة القيمة
مشكلة أخرى مهمة هي: إذا تم تحويل النموذج إلى سلعة، هل لا تزال OpenAI وAnthropic تربحان؟
الرأي التقليدي يقول لا، لكن الوكيل غير ذلك. المفتاح هو أن القيمة الحقيقية ليست في النموذج بحد ذاته، بل في “دمج النموذج + نظام التحكم”.
الأرباح تتدفق غالبًا إلى “طبقة الدمج”، وليس إلى المكونات القابلة للاستبدال. مثل شركة أبل، التي لا تبيع الأجهزة بشكل مباشر لأنها مدمجة بشكل عميق مع البرمجيات. بالمثل، الوكيل يتطلب تكاملًا عميقًا بين النموذج وطبقة التحكم، مما يجعل من OpenAI وAnthropic لاعبين رئيسيين في سلسلة القيمة، وليسوا مجرد مكونات قابلة للاستبدال.
تحول مايكروسوفت هو إشارة على ذلك، حيث كانت تركز على “قابلية استبدال النموذج”، لكن بعد إطلاقها لمنتج الوكيل الحقيقي، اضطرت للتخلي عن ذلك.
هذا يعني أن النموذج قد لا يتحول إلى سلعة بشكل كامل، لأن الوكيل يتطلب قدرات تكاملية.
اللغز الأخير
عليّ أن أعود إلى المفارقة في البداية.
كنت أعتقد دائمًا أنه طالما لا يزال الناس يقلقون من الفقاعة، فليست فقاعة؛ الفقاعة الحقيقية هي عندما يتوقف الجميع عن التشكيك فيها.
والآن، أستنتج أن: هذه ليست فقاعة.
لكن إذا كان قول “إنها ليست فقاعة” بحد ذاته هو دليل على وجود الفقاعة، فذلك هو الواقع الوحيد الممكن.