テクノロジー業界のトップリーダーたちでさえ、AIの将来的なリスクを懸念しています。CEOのサンダー・ピチャイ氏自身がこの問題についてフィナンシャル・タイムズに寄稿した記事をご覧ください。
Google CEOサンダー・ピチャイ。写真:FT
今年、人工知能(AI)は世界中の人々の想像力を捉えました。何百万人もの人々が、創造性を高め、生産性を向上させるためにAIを活用しています。また、より多くのスタートアップ企業や組織が、AIを活用した製品やテクノロジーをかつてない速さで市場に投入しています。
AIは、人類が今日取り組んでいる最も深遠な技術であり、あらゆる産業と生活の側面に影響を与えるでしょう。AI科学の発展に取り組む人が増えるにつれて、世界中のコミュニティにさらに多くの機会が開かれるでしょう。
AI開発競争の抑制を求める声も上がっていますが、その傾向はますます強まっているように思います。しかし、AI開発競争が責任あるものであり、私たち社会がそれを正しく理解することが重要です。
Googleでは、この問題に3つの方法で取り組んでいます。まず、AIをすべての人にとってより便利なものにするイノベーションを大胆に追求することです。Google検索やGmailからAndroidやマップに至るまで、私たちはAIを活用し、プロダクトを劇的に改善し続けています。
これらの進歩により、欧州全域のドライバーはより燃費の良いルートを見つけることができるようになり、何万人ものウクライナ難民が新たな住居を見つける手助けをされ、洪水予測ツールによって洪水をより早く予測することができるようになった。
Google DeepMind は、欧州分子生物学研究所と共同で AlphaFold に取り組んでおり、科学的にカタログ化された 2 億個以上のタンパク質に関する画期的な洞察を生み出し、新たなヘルスケアの可能性を切り開いています。
私たちは、社外の企業がAIを活用したイノベーションを推進できるよう支援することにも注力しています。ヨーロッパの最も差し迫った課題に取り組む社会的企業を支援するため、AIソーシャルイノベーションファンドを設立しています。
第二に、私たちはユーザーの信頼を得るという強いコミットメントに基づき、責任ある技術開発と展開を確実に行います。そのため、AIは社会に利益をもたらすように開発されるべきであり、有害な応用は避けるべきであるという信念に基づき、2018年にAI原則を策定しました。
これらの原則を実践している例は数多くあります。たとえば、専門家が話者の声を翻訳し、唇の動きを合わせるのを支援する AIビデオ吹き替えサービスである当社のユニバーサル トランスレータの不正使用を制限するための安全策を構築することなどが挙げられます。
学習を強化する大きな可能性を秘めていますが、不適切な使用によるリスクを認識しているため、権限のあるパートナーのみにアクセスを許可しています。AIが進化するにつれ、私たちのアプローチも進化していきます。
結局のところ、AIの潜在能力を活用することは、一企業だけでできるものではありません。2020年に私は、AIはイノベーションと潜在的な危害のバランスが取れる形で規制される必要があるという見解を表明しました。
潜在的な危害を予測し、利益を最大化する政策枠組みを開発するには、政府、業界の専門家、出版社、学界、市民社会の間での慎重な議論が必要になります。
責任あるAI研究開発への継続的な投資は不可欠です。特に規制が進化する中で、AIの安全な適用を確保することも重要です。国際協力の強化が鍵となります。
AIは、世界にとって、気候変動対策の目標達成、持続可能な成長の実現、国際競争力の維持など、一世代に一度あるかないかの機会となります。しかし、まだ初期段階にあり、今後取り組むべき課題は山積しています。
私たちは、他の人たちと協力して、誰もが恩恵を受けられるように、安全かつ責任を持って AI を共同で構築することを楽しみにしています。
フイ・ホアン( FTからの翻訳)
[広告2]
ソース
コメント (0)