Vietnam.vn - Nền tảng quảng bá Việt Nam

人工知能が賢くなればなるほど、その無知を隠す可能性が高くなるのでしょうか?

Báo Quốc TếBáo Quốc Tế28/09/2024


スペインのバレンシア工科大学の人工知能(AI)研究チームは、大規模言語モデルがより大きく洗練されるにつれて、ユーザーに対して答えが分からないことを認める可能性が低くなる傾向があることを発見した。
Càng thông minh, trí tuệ nhân tạo. càng có xu hướng giấu dốt?. (Ảnh minh hoạ AI)
AI が賢くなればなるほど、ユーザーに対して答えが分からないことを認める可能性が低くなります。(AI イラスト)

ネイチャー誌に掲載された研究で、研究チームは最も人気のあるAIチャットボット3種類の最新バージョンの応答性、正確性、ユーザーが誤った回答を見つける能力をテストした。

最も人気のある3つのLLM、BLOOM、LLaMA、GPTの精度をテストするため、研究チームは数千の質問を行い、得られた回答を同じ質問の以前のバージョンと比較しました。また、数学、科学、ワードパズル、地理など、様々なトピックを扱い、テキスト生成やリストの並べ替えなどの操作も行いました。

調査では、いくつかの注目すべき傾向が明らかになりました。チャットボットの全体的な精度はバージョンアップごとに向上しましたが、難しい質問に直面すると依然として低下しました。驚くべきことに、LLMの規模が大きくなり、より高度になるにつれて、正解率についてオープンに語る傾向が弱まりました。

以前のバージョンでは、ほとんどのLLMは、回答が見つからない場合や追加の情報が必要な場合に、ユーザーに明示的に通知していました。これに対し、新しいバージョンでは推測が多くなり、正解・不正解ともに回答数が増加しています。さらに懸念されるのは、調査の結果、すべてのLLMが簡単な質問に対しても時折誤答を出していることが分かり、LLMの信頼性には依然として改善の余地があることが示唆されたことです。

これらの調査結果は、AI の進化におけるパラドックスを浮き彫りにしています。つまり、モデルがより強力になる一方で、その限界についての透明性も低下する可能性があるということです。

これにより、AI システムの使用と信頼に新たな課題が生じ、ユーザーはより慎重になり、開発者はモデルの精度だけでなく「自己認識」の向上にも注力する必要があります。


[広告2]
出典: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html

コメント (0)

No data
No data

同じトピック

同じカテゴリー

トゥランの雄大な洞窟アーチ
ハノイから300km離れた高原には雲海や滝があり、観光客で賑わっています。
偽犬肉入り豚足煮込み - 北方の人々の特製料理
S字型の土地での穏やかな朝

同じ著者

遺産

人物

企業

No videos available

ニュース

政治体制

地方

商品