スペインのバレンシア工科大学の人工知能(AI)研究チームは、大規模言語モデルがより大きく洗練されるにつれて、ユーザーに対して答えが分からないことを認める可能性が低くなる傾向があることを発見した。
AI が賢くなればなるほど、ユーザーに対して答えが分からないことを認める可能性が低くなります。(AI イラスト) |
ネイチャー誌に掲載された研究で、研究チームは最も人気のあるAIチャットボット3種類の最新バージョンの応答性、正確性、ユーザーが誤った回答を見つける能力をテストした。
最も人気のある3つのLLM、BLOOM、LLaMA、GPTの精度をテストするため、研究チームは数千の質問を行い、得られた回答を同じ質問の以前のバージョンと比較しました。また、数学、科学、ワードパズル、地理など、様々なトピックを扱い、テキスト生成やリストの並べ替えなどの操作も行いました。
調査では、いくつかの注目すべき傾向が明らかになりました。チャットボットの全体的な精度はバージョンアップごとに向上しましたが、難しい質問に直面すると依然として低下しました。驚くべきことに、LLMの規模が大きくなり、より高度になるにつれて、正解率についてオープンに語る傾向が弱まりました。
以前のバージョンでは、ほとんどのLLMは、回答が見つからない場合や追加の情報が必要な場合に、ユーザーに明示的に通知していました。これに対し、新しいバージョンでは推測が多くなり、正解・不正解ともに回答数が増加しています。さらに懸念されるのは、調査の結果、すべてのLLMが簡単な質問に対しても時折誤答を出していることが分かり、LLMの信頼性には依然として改善の余地があることが示唆されたことです。
これらの調査結果は、AI の進化におけるパラドックスを浮き彫りにしています。つまり、モデルがより強力になる一方で、その限界についての透明性も低下する可能性があるということです。
これにより、AI システムの使用と信頼に新たな課題が生じ、ユーザーはより慎重になり、開発者はモデルの精度だけでなく「自己認識」の向上にも注力する必要があります。
[広告2]
出典: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
コメント (0)