قامت أنثروبيك بتحديث سياستها الجديدة. الصورة: GK Images . |
في 28 أغسطس، أعلنت شركة الذكاء الاصطناعي أنثروبيك عن تحديث لشروط خدمة المستخدم وسياسة الخصوصية. أصبح بإمكان المستخدمين الآن اختيار استخدام بياناتهم لتحسين تطبيق كلود وتعزيز الحماية ضد التجاوزات، مثل الاحتيال والنصب.
سيتم نشر هذا الإشعار على روبوت المحادثة اعتبارًا من 28 أغسطس. لدى المستخدمين شهر واحد لقبول الشروط أو رفضها. ستدخل السياسات الجديدة حيز التنفيذ فور قبولها. بعد 28 سبتمبر، سيُطلب من المستخدمين الاشتراك لمواصلة استخدام كلود.
تهدف التحديثات إلى تقديم نماذج ذكاء اصطناعي أكثر قوةً وفائدةً، وفقًا للشركة. تعديل هذا الخيار سهل، ويمكن القيام به في أي وقت من إعدادات الخصوصية.
تُجرى هذه التغييرات على باقات Claude Free وPro وMax، والتي تشمل Claude Code، أداة البرمجة من Anthropic. لن تُطبق الخدمات المشمولة بالشروط التجارية، بما في ذلك Claude for Work وClaude Gov وClaude for Education، أو استخدام واجهات برمجة التطبيقات، بما في ذلك من خلال جهات خارجية مثل Amazon Bedrock وVertex AI من Google Cloud.
ذكرت أنثروبيك في منشورها على مدونتها أن المستخدمين، من خلال المشاركة، سيساهمون في تحسين سلامة النموذج، مما يزيد من قدرته على الكشف الدقيق عن المحتوى الضار، ويقلل من خطر الإبلاغ عن المحادثات غير الضارة عن طريق الخطأ. كما سيتم تعزيز الإصدارات المستقبلية من كلود بمهارات مثل البرمجة والتحليل والاستدلال.
من المهم أن يتمتع المستخدمون بالتحكم الكامل في بياناتهم، وتحديد ما إذا كانوا يسمحون للمنصة باستخدامها في نافذة منبثقة أم لا. يمكن للحسابات الجديدة إعداد ذلك اختياريًا أثناء عملية التسجيل.
![]() |
نافذة منبثقة للشروط الجديدة في روبوت المحادثة. الصورة: أنثروبيك. |
تم زيادة فترة الاحتفاظ بالبيانات إلى خمس سنوات، وهي تُطبق على المحادثات أو جلسات البرمجة الجديدة أو المستمرة، بالإضافة إلى الردود على ردود روبوتات الدردشة. لن تُستخدم البيانات المحذوفة لتدريب النموذج مستقبلًا. في حال عدم موافقة المستخدمين على توفير البيانات للتدريب، سيستمرون في تطبيق سياسة الاحتفاظ الحالية لمدة 30 يومًا.
في شرحها للسياسة، أوضحت أنثروبيك أن دورات تطوير الذكاء الاصطناعي تمتد عادةً لسنوات، وأن الحفاظ على اتساق البيانات طوال عملية التدريب يُساعد النماذج على الحفاظ على اتساقها. كما يُحسّن الاحتفاظ بالبيانات لفترة أطول من كفاءة المُصنِّفين، وهي أنظمة تُستخدم لتحديد السلوكيات المُسيئة، واكتشاف الأنماط الضارة.
لحماية خصوصية المستخدم، نستخدم مجموعة من الأدوات والعمليات الآلية لتصفية أو إخفاء البيانات الحساسة. لا نبيع بيانات المستخدم لأطراف ثالثة، وفقًا لما ذكرته الشركة.
تُعتبر أنثروبيك من الشركات الرائدة في مجال الذكاء الاصطناعي الآمن. وقد طورت منهجية تُسمى "الذكاء الاصطناعي الدستوري"، والتي تحدد المبادئ والإرشادات الأخلاقية التي يجب على النماذج اتباعها. كما تُعد أنثروبيك من الشركات التي وقّعت على "التزامات الذكاء الاصطناعي الآمن" مع حكومات الولايات المتحدة والمملكة المتحدة ومجموعة الدول السبع.
المصدر: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
تعليق (0)