قامت الجهات التنظيمية في كاليفورنيا بإطلاق تحقيق في xAI بعد ادعاءات أن روبوت الدردشة Grok الخاص بها أنتج صورًا غير لائقة ومُ sexualized. ووفقًا للبيانات الرسمية، فإن السلطات تدرس ما إذا كانت المنصة قد نفذت تدابير حماية كافية لمنع إنتاج مثل هذه المحتويات. ويعد التحقيق نقطة تدقيق أخرى لشركات الذكاء الاصطناعي التي تعمل في المنطقة، حيث تركز هيئات الرقابة بشكل متزايد على معايير تنظيم المحتوى وحماية المستخدمين عبر منصات التكنولوجيا الناشئة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
7
إعادة النشر
مشاركة
تعليق
0/400
GateUser-7b078580
· 01-17 23:57
تُظهر البيانات أن xAI قد فشل مرة أخرى، على الرغم من أن مثل هذه الأمور كانت ستحدث حتمًا في النهاية، فإن الملاحظة أن الشركات الكبرى لا تتخذ إجراءات وقائية مسبقة هي القاعدة.
grok又翻车了...هذه المرة محتوى إباحي، أضحك، يجب على شركة الذكاء الاصطناعي أن تتدخل حقًا
شاهد النسخة الأصليةرد0
BrokenYield
· 01-15 01:00
بصراحة، مراقبة المحتوى في grok لديها بشكل أساسي نفس العائد المعدل للمخاطر مثل نسبة الرافعة المالية في سوق هابطة... أي صفر. أخيرًا، يتابع المنظمون ما كانت تعرفه الأموال الذكية بالفعل - عدم وجود تدابير حماية = فشل نظامي في الانتظار الحدوث. حركة كلاسيكية رؤية ثغرات البروتوكول بعد الانهيار لول
قامت الجهات التنظيمية في كاليفورنيا بإطلاق تحقيق في xAI بعد ادعاءات أن روبوت الدردشة Grok الخاص بها أنتج صورًا غير لائقة ومُ sexualized. ووفقًا للبيانات الرسمية، فإن السلطات تدرس ما إذا كانت المنصة قد نفذت تدابير حماية كافية لمنع إنتاج مثل هذه المحتويات. ويعد التحقيق نقطة تدقيق أخرى لشركات الذكاء الاصطناعي التي تعمل في المنطقة، حيث تركز هيئات الرقابة بشكل متزايد على معايير تنظيم المحتوى وحماية المستخدمين عبر منصات التكنولوجيا الناشئة.