アルファベット(Googleの親会社)の株式1億3500万ドルを保有するトリリアム・アセット・マネジメントは、2023年の年次株主総会でAI(人工知能)とアルゴリズムの透明性の問題を提起した。同ファンドの代表者は、アルゴリズムは司法や医療といった一部の分野で危険な結果をもたらす可能性があり、「この技術が社会にとって安全かどうかを知るためには」説明責任と透明性が必要だと主張した。
同財団がAlphabetに透明性を求めたのも今回が初めてではない。Trilliumは、2023年初頭にOpenAIのChatGPT AIが爆発的に増加した際にも同様の要請を行った。Googleはどちらの場合も拒否した。
Googleは悪意のある人物から身を守るためにアルゴリズムとAIに関する秘密を隠している
グーグルによると、アルゴリズムに関する情報はウェブサイトで公開されており、YouTubeがユーザーにおすすめするコンテンツを分類する方法についても透明性があるとしている。しかし、同社の事業の基盤となっている独自のアルゴリズムについては開示されていない。
「アルゴリズムの透明性は、悪意のある人物による情報の悪用、ユーザーのプライバシーへの影響、機密の商業情報の漏洩といったリスクも考慮する必要がある」とグーグルは説明した。
Google CEO のサンダー・ピチャイ氏は、AI は医療を含む生活のあらゆる分野に影響を与えるだろうとコメントし、同社がこの技術をより有用なものにするために人工知能に「責任を持って」取り組んでいると断言しました。
同社の声明とトリリウム・ファンドからの要請は、AIの急速な発展と、ユーザーやテクノロジー業界の懸念が広がる中で出された。昨年5月、AIエンジニアのパイオニアであるジェフリー・ヒントン氏はGoogleを退社し、AIプラットフォームにおけるチャットボットの危険性について警告を発していた。
[広告2]
ソースリンク
コメント (0)