فيتنام لديها أول مجموعة من قواعد أخلاقيات الذكاء الاصطناعي
من المتوقع أن يُحقق الذكاء الاصطناعي فوائد جمة للأفراد والمجتمع والاقتصاد الفيتنامي. إلى جانب تطبيقه، أجرت فيتنام أبحاثًا واتخذت إجراءات للحد من المخاطر في عملية تطويره واستخدامه، مع مراعاة العوامل الاقتصادية والأخلاقية والقانونية.
وهذا هو السبب أيضًا وراء إصدار وزارة العلوم والتكنولوجيا مجموعة من الوثائق التي توجه عددًا من المبادئ بشأن البحث والتطوير المسؤول لأنظمة الذكاء الاصطناعي.
تتضمن وثيقة التوجيه عددًا من المبادئ العامة والتوصيات الطوعية للرجوع إليها وتطبيقها في عملية البحث وتصميم وتطوير وتوفير أنظمة الذكاء الاصطناعي.
يتم تشجيع الوكالات العلمية والتكنولوجية والمنظمات والشركات والأفراد المشاركين في البحث والتصميم والتطوير وتوفير أنظمة الذكاء الاصطناعي على تطبيق وثيقة التوجيه هذه.
وعليه، فإن البحث والتطوير في مجال أنظمة الذكاء الاصطناعي في فيتنام يجب أن يرتكز على وجهة نظر أساسية تتمثل في التحرك نحو مجتمع يركز على الإنسان، حيث يتمتع الجميع بفوائد الذكاء الاصطناعي، مع ضمان التوازن المعقول بين الفوائد والمخاطر.
تهدف أنشطة البحث والتطوير لأنظمة الذكاء الاصطناعي في فيتنام إلى ضمان الحياد التكنولوجي. وفي جميع الأحوال، تشجع وزارة العلوم والتكنولوجيا التبادلات والمناقشات بمشاركة الأطراف المعنية. وسيستمر البحث في المبادئ والإرشادات وتحديثها بما يتناسب مع الواقع العملي.
صرحت وزارة العلوم والتكنولوجيا بأن إطلاق هذه الوثيقة يهدف إلى تعزيز الاهتمام بأبحاث الذكاء الاصطناعي وتطويره واستخدامه في فيتنام بطريقة آمنة ومسؤولة، مع الحد من الآثار السلبية على الأفراد والمجتمع. وسيعزز هذا ثقة المستخدمين والمجتمع بالذكاء الاصطناعي، ويسهل البحث والتطوير في مجال الذكاء الاصطناعي في فيتنام.
مبادئ تطوير الذكاء الاصطناعي المسؤول
تُشجَّع الوثيقة المطورين على التحلي بروح التعاون، وتعزيز الابتكار من خلال ربط أنظمة الذكاء الاصطناعي وتفاعلها. ويجب على المطورين ضمان الشفافية من خلال التحكم في مدخلات ومخرجات أنظمة الذكاء الاصطناعي، والقدرة على شرح التحليلات ذات الصلة.
يجب على المطورين الاهتمام بقدرة التحكم في أنظمة الذكاء الاصطناعي وتقييم المخاطر المُحتملة مُسبقًا. إحدى طرق تقييم المخاطر هي إجراء الاختبارات في مكان مُنفصل، كمختبر أو بيئة تضمن الأمن والسلامة، قبل تطبيقها عمليًا.
بالإضافة إلى ذلك، لضمان إمكانية التحكم في أنظمة الذكاء الاصطناعي، يجب على المطورين الاهتمام بمراقبة النظام (باستخدام أدوات التقييم/المراقبة أو التصحيح/التحديث بناءً على تعليقات المستخدم) وتدابير الاستجابة (إيقاف تشغيل النظام، وإيقاف تشغيل الشبكة، وما إلى ذلك) التي يقوم بها البشر أو أنظمة الذكاء الاصطناعي الموثوقة.
يجب على المطورين ضمان عدم تسبب نظام الذكاء الاصطناعي في أي ضرر لحياة المستخدمين أو أجسادهم أو ممتلكاتهم أو أي طرف ثالث، بما في ذلك عبر الوسطاء؛ والاهتمام بأمن نظام الذكاء الاصطناعي وموثوقيته وقدرته على تحمل الهجمات المادية أو الحوادث؛ وضمان عدم انتهاكه لخصوصية المستخدمين أو أي طرف ثالث. تشمل حقوق الخصوصية المذكورة في هذا المبدأ الحق في خصوصية المساحة (السلام في الحياة الشخصية)، والحق في خصوصية المعلومات (البيانات الشخصية)، وسرية الاتصالات.
عند تطوير أنظمة الذكاء الاصطناعي، يجب على المطورين إيلاء اهتمام خاص لاحترام حقوق الإنسان وكرامته. وقدر الإمكان، وتبعًا لخصائص التقنية المُستخدمة، يجب على المطورين اتخاذ تدابير لضمان عدم التسبب في أي تمييز أو ظلم ناتج عن التحيز في بيانات التدريب. علاوة على ذلك، يجب على المطورين تحمل مسؤولياتهم تجاه أصحاب المصلحة ودعم المستخدمين.
[إعلان 2]
المصدر: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html
تعليق (0)