ChatGPTの長期記憶機能は、OpenAIが2024年2月に導入し、9月に拡張した新機能です。
最近、セキュリティ研究者のヨハン・レーベルガー氏がこの機能に関連する重大な脆弱性を明らかにしました。
この新機能は、チャットボットが過去の会話の情報を保存するのに役立つことが知られています。これにより、ユーザーはチャットのたびに年齢、興味、個人的な見解などの情報を再入力する必要がなくなります。しかし、これは攻撃者にとっての弱点となっています。
ヨハン・レーバーガーは、ハッカーがプロンプト・インジェクションと呼ばれる手法を使用できることを示しました。これは、悪意のある命令をメモリに挿入し、AIに強制的に従わせるものです。これらのコマンドは、電子メール、文書、ウェブサイトなどの信頼できないコンテンツを通じて配信されます。
こうした偽の記憶が保存されると、AIはそれをユーザーとの会話で実際の情報として使い続けるため、ユーザーの個人データの収集や悪用につながる可能性があります。
レーバーガー氏は具体的な例として、悪意のある画像を含むリンクを送信すると、ChatGPTに偽の記憶が保存されるという例を挙げました。この情報はChatGPTの将来の応答に影響を与えます。特に、ユーザーが入力した情報はすべてハッカーのサーバーに送信されます。
したがって、攻撃を仕掛けるには、ハッカーはChatGPTユーザーに悪意のある画像を含むリンクをクリックさせるだけで済みます。その後、ChatGPTユーザーとのチャットはすべて、痕跡を残さずに攻撃者のサーバーにリダイレクトされます。
レーバーガー氏は2024年5月にOpenAiにこのバグを報告しましたが、同社はこれをセキュリティ上の欠陥としか考えませんでした。ユーザーデータが盗まれる可能性があるという証拠を受け取った後、同社はChatGPTのウェブ版に一時的なパッチをリリースしました。
この問題は一時的に修正されましたが、Rehberger氏は、信頼できないコンテンツが依然としてPromptインジェクションを利用してChatGPTの長期メモリに偽の情報を挿入できる可能性があると指摘しています。つまり、場合によっては、ハッカーがこの脆弱性を悪用して悪意のあるメモリを保存し、個人情報を長期的に盗む可能性があるということです。
OpenAIは、ユーザーがChatGPTに保存されたメモリに誤検知がないか定期的にチェックすることを推奨しており、ツールに保存されたメモリを管理および削除する方法についても詳細な手順を提供している。
[広告2]
出典: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
コメント (0)