ロシア中央銀行は、金融分野におけるAIの開発と応用に関する倫理規定を正式に発行し、人工知能(AI)技術の管理において重要な一歩を踏み出した。
7月9日に公開されたこの規範は、銀行業界におけるAI技術の持続可能な発展を確保するための5つの中心原則を定めている。
モスクワのVNA特派員によると、この行動規範は、人間中心、公正、透明性、安全性、責任あるリスク管理という5つの主要な柱に基づいているという。
この文書は勧告的な性質を持つが、AIの開発と応用における潜在的なリスクを最小限に抑えながら、新しい技術に対する国民の信頼を高めることが期待されている。
「人間中心」の原則に基づき、銀行は、AIとやりとりする際に顧客に明確に通知するとともに、ユーザーがその技術の使用を拒否する権利を尊重することが求められています。
特に、金融機関は高齢者、障害者、教育水準の低い人々などの社会的弱者に注意を払う必要があります。
公平性の面では、この規範は、データ処理と AI による意思決定において、国籍、言語、人種、 政治的意見、宗教に基づく差別を禁止しています。
透明性の原則では、銀行は AI 生成コンテンツにラベルを付けるなど、AI の使用に関するリスクと条件に関する情報を公開することが求められています。
ロシア中央銀行は、安全性を確保するため、金融機関に対し、個人情報の機密性を維持しながら、データとAIシステムの品質を厳格にチェックすることを義務付けています。銀行は、AI品質評価指標を確立し、機密データを保護するための対策を講じる必要があります。
リスク管理に関しては、金融機関は厳格な管理プロセスを確立し、規則の遵守を監視する担当者を任命し、AIモデル、リスク評価、ユーザーからのフィードバックに関する情報を保存するシステムを維持することが求められます。
出典: https://www.vietnamplus.vn/nga-ban-hanh-quy-tac-dao-duc-ai-trong-linh-vuc-tai-chinh-post1048870.vnp
コメント (0)