プライベートな会話が公開データになる
Fast Companyのレポートによると、Googleは数千件ものプライベートな会話をインデックスしているという。これは「氷山の一角」に過ぎず、さらに数百万件もの会話が漏洩の危険にさらされている可能性がある。
これらの会話には直接個人を特定する情報は含まれていなかったが、多くのユーザーが人間関係からトラウマ体験に至るまで極めてデリケートな個人情報を共有しており、特定が可能だった。
すべては、一部のサイバーセキュリティ専門家が、単純な Google 検索だけで、ユーザーが公開されている共有チャットに簡単にアクセスできることを発見したことから始まりました。
漏洩した内容には、サンプルの文章や技術的な質問だけでなく、個人情報、機密性の高い作業の共有、さらには個人的な秘密も含まれています。
原因は、OpenAIが導入した「チャットを共有」機能にあると判明しました。これは、ユーザーがチャットの内容を他のユーザーと共有できるようにするためのユーティリティです。ユーザーが「このチャットを発見可能にする」を選択すると、システムは検索エンジンにインデックスされる公開リンクを作成します。
この機能のインターフェースが十分に明確ではないため、多くの人がコンテンツをオンラインで公開するのではなく、友人や同僚とのみ共有していると誤解していることに留意してください。
反発を受けて、OpenAIは即座に行動を起こし、共有機能を一時停止し、Googleと協力して関連リンクを削除した。
Fast Company によれば、そのようなリンクが 4,500 件以上発見されており、ChatGPT には世界中に数億人のユーザーがいることを考えると、これはかなりの数です。
心配なのは、多くの人が ChatGPT をプライベートな空間だと信じて、メールを書いたり、仕事を交換したり、 医療情報を悪用したり、さらには個人的な心理的問題を打ち明けたりするのに使用していることです。
AI時代のプライバシーに関する警鐘
この事件は、AI企業のユーザーデータに対する責任について大きな疑問を提起しています。OpenAIは、ユーザーが自身のプライバシーを理解できるよう十分な透明性を提供しているのでしょうか?ユーザーが受けているデータ保護のレベルは、コンテンツの機密性に見合ったものなのでしょうか?
OpenAIのCEOサム・アルトマン氏は、ChatGPTと機密性の高い個人情報を共有しないようユーザーらに警告し、裁判所から法的に要求された場合、同社がそのような情報を提供することを強制される可能性があることを認めた。
しかし注目すべきは、アルトマン氏の声明では、ユーザーが自発的に共有する会話が検索エンジンで公開インデックス化される可能性があることには全く触れられていないことだ。
さらに、ChatGPTがデータ漏洩に関して疑問視されるのは今回が初めてではありません。研究者たちは、GPTのような大規模言語モデルは、ユーザーが巧妙な方法で質問した場合、「誤って」古いデータを再現してしまう可能性があると警告しています。
ChatGPTのようなツールが、人々の情報検索やコンテンツ作成の方法に革命をもたらしたことは否定できません。しかし、利便性が高まる一方で、強力な技術的障壁と慎重な個人操作なしには、真のプライバシーは確保できないことをユーザーは認識する必要があります。
出典: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
コメント (0)