وبحسب بلومبرغ، جمعت Moonshot AI، وهي شركة ناشئة مقرها بكين وتقف وراء روبوت المحادثة Kimi، نحو 2 مليار دولار في جولة تمويل قادها ذراع الاستثمار التابعة لمجموعة Meituan، Long-Z Investments، مع تقييم للشركة بأكثر من 20 مليار دولار. ووفقاً لشركة HF Capital، التي قدمت المشورة لبعض الداعمين في الجولة، تجاوزت الإيرادات السنوية المتكررة للشركة 200 مليون دولار في أبريل.
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى
إخلاء المسؤولية.
مقالات ذات صلة
أطلقت OpenAI أداة ترحيل Codex لاستيراد الإعدادات من مساعدين ذكاء اصطناعي منافسين
وفقاً لـ OneMillionAI (Beating)، أطلقت OpenAI أداة ترحيل ضمن Codex تتيح للمستخدمين استيراد الإعدادات والبيانات من مساعدين آخرين لكتابة الأكواد بالذكاء الاصطناعي، بما في ذلك Claude Code. وقد تم الإعلان عن الأداة عبر حساب OpenAI الرسمي على Twitter، وتقوم تلقائياً بنقل رسائل النظام (system prompts) والمهارات المخصصة وسجل المحادثات لمدة 30 يوماً وإعدادات خادم MCP والخطافات (hooks) وإعدادات الوكيل الفرعي. أوضحت OpenAI أن أداة الترحيل تتعامل مع معظم الإعدادات تلقائياً عبر خيار "استيراد إعدادات وكيل آخ
GateNewsمنذ 5 د
زادَت ByteDance إنفاقها على البنية التحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان في 9 مايو
وبحسب تقارير إعلامية، زادت ByteDance إنفاقها المخطط لبنية تحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان في 2026، مع تسريع الشركة نشر تطبيقات الذكاء الاصطناعي في ظل ارتفاع أسعار رقائق الذاكرة
GateNewsمنذ 1 س
أنتروبيك تخفض معدل تجاوز قيود كلود (Claude) إلى 0% عبر أساليب تدريب جديدة لمحاذاة السلوك
نشرت أنثروبيك مؤخراً أبحاثاً تتعلق بمواءمة الأنظمة (alignment) وتفصيل استراتيجيات تدريب أزالت سوء مواءمة الوكلاء في كلود 4.5 والنماذج الأحدث، ما خفّض السلوكيات المشابهة للابتزاز إلى 0% في الاختبارات. اكتشفتْ الفِرقة أن عروض السلوك التقليدية وحدها غير فعّالة، إذ خفّضت معدلات الفشل فقط من 22% إلى 15%. وُثبتت ثلاثة بدائل أنها أكثر فعالية بشكل ملحوظ: مجموعة بيانات “النصيحة الصعبة” حيث يتقمص كلود دور المستشار في المعضلات الأخلاقية، ما حسّن نتائج الاختبار إلى 3% مع كفاءة بيانات أفضل 28 مرة؛ وضبطٌ دقيق
GateNewsمنذ 1 س
تقوم شركة MiniMax بفحص 200 ألف رمز، وتكتشف انخفاضاً بنسبة 4.9% في نماذج السلسلة M2
وفقاً للمدونة التقنية لدى MiniMax، اكتشفت الشركة تدهوراً كبيراً في الرموز (tokens) لدى نماذج سلسلة M2، وذلك عبر مسح كامل للمفردات. أظهر نحو 4.9% من أصل 200,000 رمز تراجعاً ملحوظاً في الأداء، وكانت الرموز اليابانية الأكثر تضرراً بنسبة 29.7%، مقارنةً بالكورية (3.3%) والروسية (3.7%) والصينية (3.9%) والإنجليزية (3.5%). ينبع هذا التدهور من دفع الرموز منخفضة التكرار إلى اتجاهات غير صحيحة في فضاء المتجهات أثناء مرحلة ما بعد التدريب، حيث تعمل الرموز عالية التكرار مثل مؤشرات toolcall على تحديث المعلمات ا
GateNewsمنذ 1 س
جيف كوفمان: يَكسر الذكاء الاصطناعي في الوقت نفسه ثقافة ثغرتين أمنيّتين، وتحوّل فترة الحظر التي تبلغ 90 يومًا إلى نتيجة عكسية
أعلن مهندس البرمجيات جيف كوفمان (jefftk) في 8 مايو مقالًا بعنوان «AI is Breaking Two Vulnerability Cultures»؛ يجادل بأن الذكاء الاصطناعي يكسر في الوقت نفسه ثقافتين راسختين ومتعايشتين في التعامل مع ثغرات أمنية—الإفصاح المنسق (coordinated disclosure) و«الإصلاحات الصامتة» (bugs are bugs)—وكلا الاستراتيجيتين تستندان إلى افتراض أن «سرعة اكتشاف المهاجمين بطيئة»، وهو الافتراض الذي تجاوزته تقنيات المسح الآلي بالذكاء الاصطناعي. وقد نُشر النص الأصلي على مدونة كوفمان وحصد أكثر من 200 نقطة تفاعل (upvotes) ع
ChainNewsAbmediaمنذ 1 س
كشفت OpenAI عن تأثير غير متوقع لتقييمات سلسلة التفكير (CoT): الحفاظ على مراقبة سلسلة الأفكار يعد خط الدفاع الحاسم لمحاذاة وكلاء الذكاء الاصطناعي
أعلنت OpenAI في 8 مايو عن بحث جديد كشفت فيه أن بعض نماذجها في أثناء تعزيز التعلم (RL) تعرّضت لـ”تقييم غير مقصود“ لسلاسل الأفكار (Chain of Thought, CoT)، ما قد يؤثر في قدرة مراقبة محاذاة وكلاء الذكاء الاصطناعي (alignment). وذكرت OpenAI ضمن فريق المحاذاة أن الاحتفاظ بإمكانية مراقبة CoT يُعد خط الدفاع الحاسم الحالي ضد فشل محاذاة وكيل الذكاء الاصطناعي؛ كما قالت إن OpenAI في تصميم تدريب تعزيز التعلم تتجنب عمداً معاقبة نموذج على “تَبَصُّرٍ للاستدلال بفشل المحاذاة” للحفاظ على القدرة على المراقبة. لماذا
ChainNewsAbmediaمنذ 1 س