Vietnam.vn - Nền tảng quảng bá Việt Nam

Des experts donnent des « conseils » pour identifier les appels Deepfake frauduleux

Báo Đại Đoàn KếtBáo Đại Đoàn Kết04/03/2025


Le Département de la sécurité de l’information a récemment émis un avertissement concernant la récurrence continue des fraudes vidéo et images de haute technologie.

En conséquence, la situation des cybercriminels qui profitent des images et des vidéos publiques de personnes pour les éditer, les couper et menacer de faire chanter avec de fausses vidéos a été largement mise en garde par les autorités auprès du public.

deepfake-1-.jpg
Illustration : Hoang Chien.

En utilisant la technologie Deepfake qui permet de reproduire le son et l'image d'une personne avec une grande précision, les criminels peuvent se faire passer pour des dirigeants lors de réunions en ligne ou créer des vidéos et des appels pour commettre des fraudes financières.

De plus, ces escroqueries exploitent souvent des facteurs psychologiques tels que l’urgence, la peur ou le pouvoir, poussant les victimes à agir avec précipitation sans vérifier soigneusement l’authenticité.

Les deepfakes ne se limitent pas aux escroqueries aux investissements financiers. Les escroqueries sentimentales en sont un autre exemple : elles permettent de créer des personnages fictifs qui interagissent avec les victimes par appels vidéo. Après avoir gagné la confiance de la victime, l'escroc demande des virements d'argent pour régler des urgences, des frais de voyage ou des prêts.

À la lumière de la situation ci-dessus, le Département de la sécurité de l’information recommande aux gens de se méfier des conseils d’investissement des célébrités sur les réseaux sociaux ; de se méfier des messages, courriels ou appels non identifiés ; et d’observer attentivement les expressions faciales non naturelles dans les vidéos.

Les gens doivent également limiter la publication de contenu lié aux informations personnelles sur les réseaux sociaux pour éviter que des informations telles que des images, des vidéos ou des voix ne soient volées par des malfaiteurs ; dans le même temps, définissez les comptes en mode privé pour protéger les informations personnelles.

S'adressant aux journalistes du journal Dai Doan Ket, l'expert en cybersécurité Ngo Minh Hieu, cofondateur du Projet vietnamien de prévention de la cyberfraude (Chongluadao.vn), a déclaré que l'utilisation de la technologie Deepfake par l'IA pour falsifier des appels vidéo à des fins frauduleuses restait complexe. Les individus exploitent cette technologie pour accroître la crédibilité de leurs « proies ».

Plus précisément, les sujets passeront de manière proactive des appels vidéo aux victimes à partir d'images et de vidéos précédemment « volées » et les traiteront techniquement, déformeront le son ou simuleront des problèmes d'image pour gagner la confiance des victimes.

Habituellement, ces appels sont très courts, ne durent que quelques secondes, puis l'escroc utilise l'excuse d'un réseau instable, du fait d'être dans la rue, etc. pour demander à la victime de répondre aux demandes de l'escroc.

Les experts préviennent que l'utilisation de l'IA à des fins de cyberfraude devrait augmenter considérablement dans un avenir proche. Il est donc essentiel de se méfier de manière proactive, notamment lorsqu'on reçoit des messages, des appels vidéo et des liens suspects.

Selon l'analyse de cet expert, l'algorithme actuel d'intelligence artificielle (IA) Deepfake lors des appels en temps réel ne sera pas en mesure de gérer si l'appelant tourne à gauche, tourne à droite ou se lève...

Un point faible particulier auquel il faut prêter attention lors de ces appels concerne les dents. Par conséquent, les algorithmes d'IA actuels ne peuvent pas reproduire les dents de la personne usurpée.

En cas d'utilisation de deepfake, l'image de la personne ouvrant la bouche peut être dépourvue de dents ; certaines personnes ont trois, voire quatre mâchoires. Par conséquent, la présence de dents est l'élément le plus reconnaissable d'un faux appel utilisant deepfake.

Ralentir et ne pas répondre immédiatement à la demande est une condition préalable pour éviter de tomber dans le piège de l'arnaque. Lorsqu'on reçoit un message ou un appel via les réseaux sociaux, il est conseillé d'appeler directement ses proches pour vérifier précisément qui les contacte, dans un délai minimum de 30 secondes, ou de les rencontrer en personne.

En cas de suspicion d'usurpation de l'identité de proches sur les réseaux sociaux pour frauder ou s'approprier des biens, il est nécessaire de signaler immédiatement à l'agence de police la plus proche pour une prise en charge et un traitement rapides.



Source : https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html

Comment (0)

No data
No data

Même sujet

Même catégorie

Un village caché dans la vallée de Thanh Hoa attire les touristes pour découvrir
La cuisine d'Ho Chi Minh-Ville raconte l'histoire des rues
Vietnam - La Pologne peint une « symphonie de lumière » dans le ciel de Da Nang
Le pont côtier en bois de Thanh Hoa fait sensation grâce à sa belle vue sur le coucher de soleil comme à Phu Quoc

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit