AIが「幻覚」を起こし、虚偽の不正確な回答をすることがあることは以前から知られていました。しかし、最近、研究者たちは、人工知能やチャットボットが人間に代わって犯罪を犯したり、自分の行為を隠蔽するために嘘をついたりするように操作される可能性があることを発見しました。
そこで、コーネル大学(米国)の研究チームは、大規模言語モデル(LLM)が誤った動作をしてユーザーを欺く状況を想定しました。実験の説明によると、研究者たちはLLMであるOpenAIのGPT-4に、金融機関の投資行動をシミュレーションさせました。研究チームはこの人工知能と通常の会話形式でやり取りしましたが、メッセージのやり取りの際にAIが「思考」を明らかにするように設定することで、人工知能の意思決定プロセスをより詳細に観察しました。
プレッシャーを受けると、AI は不正行為を犯したり、自分の行為を隠すために嘘をついたりする可能性があります。
AIが嘘をついたり、不正行為をしたりする能力をテストするため、研究者たちはこのツールを実際にテストしました。彼らは金融機関のマネージャーを装い、株式トレーダーを装ってAIにメールを送り、会社の業績が芳しくないと訴えました。
AIは利益の出る株式取引に関する「内部情報」も入手し、インサイダー取引が会社の方針に反することを承知の上で、それに基づいて行動しました。しかし、経営陣に報告する際には、言語モデルは取引決定の背後にある真の理由を隠蔽しました。
より多くの結果を得るために、チームは、LLMの推論テーブルへのアクセスを削除したり、システム指示を変更して逸脱行動を防いだり、AIにかかるプレッシャーのレベルを変更したり、捕まるリスクを変更したりするなどの設定を変更しました...しかし、頻度を評価した結果、機会が与えられた場合、GPT-4は依然として最大75%の確率でインサイダー取引を行うことを決定していることが分かりました。
「我々の知る限り、これは人間に無害で誠実であるように設計された人工知能システムにおける計画的な欺瞞行為の初めての証拠である」と報告書は結論付けている。
[広告2]
ソースリンク
コメント (0)