أكد نيك كليج، رئيس الشؤون العالمية في ميتا، هذه المعلومات في مقابلة مع رويترز هذا الأسبوع. وبناءً على ذلك، تُجمع بيانات تدريب الذكاء الاصطناعي "متعدد الشخصيات" (الذي أطلقته الشركة في 27 سبتمبر) من المنشورات (نصوص مكتوبة وصور) التي ينشرها المستخدمون علنًا على فيسبوك وإنستغرام. ولا يُستخدم المحتوى الخاص أو المحتوى المقتصر على الأصدقاء والعائلة والمحادثات.
قال كليج إن ميتا تتخذ إجراءات تقنية للتحكم في البيانات التي يستخرجها الذكاء الاصطناعي، لكنه رفض الخوض في تفاصيل آلية عمل النموذج. وأكد رئيس ميتا: "نستبعد مجموعات البيانات التي تحتوي على الكثير من المعلومات الشخصية، ولا نستخدم بيانات من مواقع مثل لينكدإن لتدريب الذكاء الاصطناعي بسبب مخاوف تتعلق بالخصوصية".
استخدام المنشورات العامة على فيسبوك وإنستغرام لتدريب الذكاء الاصطناعي في ميتا
يصف مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، مساعد الذكاء الاصطناعي ميتا بأنه قادر على "التحدث كالإنسان" بفضل نموذجه اللغوي الضخم المسمى "لاما 2"، بالإضافة إلى نموذج تحويل النص إلى صورة "إيمو". يستطيع مساعد الشركة توليد النصوص والصوت والصور، ويمكنه الوصول إلى المعلومات في الوقت الفعلي بفضل شراكته مع محرك بحث بينج من مايكروسوفت، وهي منصة تستخدم أيضًا أحدث جيل من ChatGPT.
يتألف ميتا للذكاء الاصطناعي من 28 روبوت دردشة (برامج استجابة آلية) مبنية على الصورة النمطية للمشاهير. في اليوم الأول من الاختبار، واجهت هذه الأداة جدلاً واسعاً عندما أظهرت علامات سمية، وتفاعلت بشكل مبالغ فيه بسبب شخصيتها الفردية. من بينها، قدمت بعض روبوتات الدردشة معلومات تميل إلى العنصرية، وتتعمق في الحياة الشخصية للمستخدمين. ازدادت المشكلة خطورة عندما أعلن موظفو ميتا أنفسهم عدم اختبار هذا الذكاء الاصطناعي بسبب مخاوفهم من المحتوى غير المألوف الذي يقدمه الذكاء الاصطناعي للشركة.
يُثير استخدام ميتا لبيانات المستخدمين المنشورة على منصات التواصل الاجتماعي لتغذية الذكاء الاصطناعي مخاوف بشأن قضايا حقوق النشر. وعندما سُئل ممثل الشركة عما إذا كانت ميتا تلتزم بخطوات تجنب نسخ المحتوى المحمي بحقوق النشر، اكتفى بذكر البند الذي يمنع المستخدمين من إنشاء محتوى ينتهك الخصوصية وحقوق الملكية الفكرية على المنصة.
[إعلان 2]
رابط المصدر
تعليق (0)