مكتب البريد العام
تقدم كاسبرسكي المبادئ الأخلاقية لتطبيق الذكاء الاصطناعي (AI) أو التعلم الآلي (ML) في تطوير واستخدام أنظمة الشركات لتعزيز التزامها بتطوير التكنولوجيا بشكل مسؤول وشفاف.
تستخدم Kaspersky خوارزميات التعلم الآلي - وهي مجموعة فرعية من الذكاء الاصطناعي - في حلولها المؤسسية منذ ما يقرب من 20 عامًا. |
مع تزايد أهمية دور خوارزميات الذكاء الاصطناعي في مجال الأمن السيبراني، تشرح المبادئ الواردة في الورقة البيضاء لشركة كاسبرسكي كيف يمكن للشركات ضمان موثوقية تقنية الذكاء الاصطناعي وتوجيه الشركات في الصناعة للتخفيف من المخاطر المرتبطة باستخدام خوارزميات الذكاء الاصطناعي/التعلم الآلي.
مكّن الجمع بين الذكاء الاصطناعي والخبرة البشرية حلول كاسبرسكي من اكتشاف مجموعة واسعة من تهديدات الأمن السيبراني ومكافحتها بفعالية. يلعب التعلم الآلي دورًا هامًا في أتمتة اكتشاف التهديدات وتحديد الشذوذ، مع تحسين دقة اكتشاف البرامج الضارة.
لتعزيز الابتكار، وضعت كاسبرسكي مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي/التعلم الآلي. وتُنشر هذه المبادئ علنًا في القطاع لأغراض الدبلوماسية متعددة الأطراف، لضمان استخدام الذكاء الاصطناعي بحكمة لبناء عالم أفضل.
يعكس مبدأ الشفافية إيمان كاسبرسكي الراسخ بضرورة إطلاع الشركات عملائها على تقنيات الذكاء الاصطناعي/التعلم الآلي المستخدمة في منتجاتها وخدماتها. تلتزم كاسبرسكي بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي/تعلم آلي سهلة الاستخدام قدر الإمكان، ومشاركة المعلومات مع الجهات المعنية حول كيفية عمل الحلول، وكيفية استفادة كاسبرسكي من تقنيات الذكاء الاصطناعي/التعلم الآلي.
وفقًا لكاسبيرسكي، لتسهيل تطوير واستخدام الذكاء الاصطناعي والتعلم الآلي، يجب مراعاة المبادئ الستة التالية: الشفافية، والسلامة، والتحكم البشري، والخصوصية، والالتزام بالاستخدام لأغراض الأمن السيبراني، والانفتاح على الحوار...
[إعلان 2]
مصدر
تعليق (0)