ディープフェイク音声で声を偽装する詐欺手口
急速に発展する人工知能(AI)の時代において、かつては真の証拠の一つと考えられていた音声は、今や悪者の手に渡り、危険な道具となっています。ディープフェイク音声技術は、実在の人物と全く同じ声を偽造することを可能にし、詐欺や財産の横領を目的とした巧妙な偽通話を作り出します。
ディープフェイクの音声はなぜ怖いのでしょうか?
ディープフェイク音声は、人工知能(AI)と機械学習を応用して、本物の人間の声と全く同じ偽の音声を作成する技術です。
Tacotron、WaveNet、ElevenLabs などの最新モデルや、Respeecher などの音声複製プラットフォームのサポートにより、詐欺師は 3 ~ 10 秒の音声サンプルだけで、95% の信頼性のあるディープフェイクを作成できます。
ディープフェイクの音声は、発音、イントネーションから各人の独特の話し方まで、ほぼ完璧に音声を模倣できるため、特に危険です。
これにより、被害者が、特にその声が親戚、友人、上司のものである場合、本物と偽物を見分けることが非常に困難になります。
音声マイニングも容易です。今日では、ほとんどの人がTikTokなどのプラットフォーム、ソーシャルメディアのライブ配信、ポッドキャスト、オンライン会議などを通じて音声を公開しているからです。さらに懸念されるのは、ディープフェイク音声は画像や動画のように視覚的な痕跡を残さないため、捜査が困難になり、被害者は金銭的損失を被るリスクが高まることです。
ディープフェイクを作成するには、わずか数秒の音声サンプルで十分です
ディープフェイク音声詐欺はますます巧妙化しており、緊急事態で知人になりすましてパニックを起こさせ、被害者にすぐに送金するよう圧力をかけるという、よくあるシナリオをよく利用している。
ベトナムでは、母親が「息子」から事故に遭い、緊急にお金が必要だという電話を受けたという事件がありました。英国では、ある会社の取締役が「上司」から電話で送金を依頼された後、24万ドル以上を騙し取られました。また、事務職員が「大物」から「戦略的パートナー」への支払いを依頼されたという電話を受け、騙されたケースもありました。
こうした状況に共通するのは、偽の声が親戚や目上の人のように再現され、被害者がそれを絶対的に信じてしまい、確認する時間がないという点です。
常に検証し、すぐに信頼しない
ディープフェイク音声詐欺の増加に伴い、たとえ愛する人の声と全く同じに聞こえたとしても、電話で声だけを頼りに送金しないよう注意が必要です。取引を行う前に、以前の番号に折り返し電話をかけるか、複数のチャネルで情報を確認してください。
多くの専門家は、異常な状況での検証のために、自宅や職場内に「内部パスワード」を設定することも推奨しています。
さらに、SNSにおける明瞭な音声の動画、特に長時間の動画の投稿を制限する必要があります。特に、高齢者やテクノロジーへの露出が少ない人といった脆弱層は、ハイテク詐欺の標的となる可能性が高いため、積極的な警告・指導が必要です。
親戚、友人、同僚の声はすべて偽造可能です。
多くの国では、当局が独自の法的枠組みでディープフェイク技術に対する規制を強化し始めている。
米国では、複数の州が選挙運動や偽情報の拡散におけるディープフェイクの使用を禁止しました。欧州連合(EU)はAI法を可決し、コンテンツが人工知能(AI)によって生成された場合、組織に透明性を確保し、明確な警告を発することを義務付けました。
一方、ベトナムではディープフェイク音声に関する具体的な規制はないものの、関連行為は詐欺、プライバシー侵害、身元詐称などの犯罪として現行法に則って取り扱われる可能性がある。
しかし、現実には、テクノロジーは法律の監視能力をはるかに超える速度で発展しており、悪意のある人物が悪用できる抜け穴が数多く残されています。
声が証拠ではなくなったとき
かつて声は親密で信頼できるものでしたが、ディープフェイク音声の登場により、もはや信頼できる証拠ではなくなりました。AI時代においては、一人ひとりがデジタル防御の知識を持ち、積極的に検証し、常に警戒を怠らないことが不可欠です。なぜなら、通話は罠となる可能性があるからです。
出典: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm
コメント (0)