وبحسب صحيفة الغارديان ، ففي بعض الردود الأخيرة، أدلى روبوت المحادثة بتعليقات مثيرة للجدل بشأن فرد يحمل لقبًا شائعًا في المجتمع اليهودي، مستخدمًا لغة اعتبرت مسيئة وغير متوافقة مع معايير المجتمع.
وكانت بعض التعليقات سلبية حتى ، حيث وصف نفسه بأنه "ميكاهتلر" (مزيج من الزعيم النازي وروبوت).
وسرعان ما تسببت التصريحات المذكورة أعلاه في موجة من الاحتجاجات في مجتمع الإنترنت وأثارت تساؤلات حول مستوى السيطرة على نماذج الذكاء الاصطناعي، خاصة عندما يتم دمجها في منصة تضم عددًا كبيرًا من المستخدمين مثل X.
بناءً على شكوى المستخدم، حذفت شركة xAI المنشورات وأكدت أنها تُجري تعديلات على نظامها. وصرح ممثل الشركة: "نحن على علم بمنشورات Grok الأخيرة، ونعمل بنشاط على إزالة المحتوى غير اللائق. منذ علمنا بالحادثة، وضعت xAI ضوابط لمنع Grok من نشر خطاب الكراهية على X".
وبحسب شركة xAI، تم تدريب نموذج Grok بهدف "اكتشاف الحقيقة"، وتعتمد الشركة على ردود الفعل من المجتمع لتحسين عملية التدريب.
مع ذلك، ليست هذه المرة الأولى التي يُثير فيها روبوت المحادثة "جروك" جدلاً. ففي يونيو/حزيران، استخدم البرنامج مرارًا عبارة "إبادة جماعية في جنوب أفريقيا".
وفقًا لموقع ذا فيرج ، ربما تكون التغييرات الأخيرة في عمليات جروك قد أدت بشكل غير مباشر إلى الحادث. في تحديث على منصة استضافة الأكواد المصدرية جيت هب، عدّلت شركة التطوير خوارزمية روبوت المحادثة لتجنب تكرار المعلومات المتحيزة وتشجيع ردود أكثر استقلالية.
أشار الملياردير إيلون ماسك، مؤسس xAI ومالك X، على المنصة إلى أن Grok قد تحسن بشكل ملحوظ وأصبح قادرًا على "الاستجابة بمرونة أكبر". ومع ذلك، تُظهر التجارب الواقعية أن نماذج لغة الذكاء الاصطناعي لا تزال عرضة للأخطاء، خاصةً في غياب مستوى الاعتدال المناسب.
ويستخدم Grok حاليًا من قبل ملايين المستخدمين حول العالم، وهو جزء من طموح لتطوير تطبيقات تدمج الذكاء الاصطناعي مع الشبكات الاجتماعية ومحركات البحث وخدمات تفاعل المستخدم الأخرى.
المصدر: https://baovanhoa.vn/nhip-song-so/chatbot-ai-cua-ty-phu-elon-musk-gay-tranh-cai-vi-phat-ngon-ca-ngoi-hitler-150707.html
تعليق (0)