ロイター通信によると、11月26日に公開された20ページの文書では、AI研究・応用企業は顧客や一般大衆を不正使用から守る形で技術を開発・展開する必要があることに18カ国が同意した。
この合意は拘束力がなく、主にAIシステムを監視して不正使用を検知・防止すること、データを保護すること、ソフトウェアベンダーを審査することなど、一般的な勧告を行っている。
AIの発展は、技術分野での競争と多くの懸念をもたらします。
しかし、米国サイバーセキュリティ・インフラセキュリティ庁のジェン・イースタリー長官は、AIシステムは安全性を最優先にする必要があるとの見解を多くの国が共有していることが重要だと述べた。
「これらの能力は、単に機能の魅力や、いかに早く市場に投入できるか、あるいはいかに競争力を高めてコストを削減できるかだけの問題ではないという点で、各国が合意したのは今回が初めてだ」とイースターリー氏はロイター通信に語った。同当局者は、このガイダンスは「設計段階で確保すべき最も重要なことはセキュリティであるという合意」を表していると述べた。
この合意は、AI の発展を方向づけるための世界各国政府による一連の取り組みの中で最新のものであり、その影響は産業界や社会全体にますます広がっている。
この文書は、AIシステムをハッカーからどのように保護するかという疑問に答えており、新しいモデルは徹底的なセキュリティテストを行った後にのみリリースするといった推奨事項も含まれています。しかし、この新しいガイダンスは、AIの適切な利用や、これらのモデルに入力するデータの収集方法といった難解な問題には触れていません。
AIの台頭は、AIが民主的なプロセスを混乱させたり、詐欺を助長したり、大規模な失業を引き起こしたりするなど、さまざまな危害をもたらす可能性があるという懸念を含め、多くの懸念を引き起こしている。
欧州はAI関連の規制制定において米国に先行しています。フランス、ドイツ、イタリアも最近、AIの基盤となるモデルに関する規制方法について合意に達しました。
バイデン政権はAI規制について議員に圧力をかけているが、深刻な二極化が進む議会では効果的な規制の可決にほとんど進展が見られない。
ホワイトハウスは10月に新たな大統領令を発令し、国家安全保障を強化しつつ、消費者、労働者、少数派に対するAIのリスクを軽減することを目指した。
[広告2]
ソースリンク
コメント (0)