Департамент информационной безопасности недавно выпустил предупреждение относительно продолжающихся случаев мошенничества с использованием высокотехнологичных видеоматериалов и изображений.
Соответственно, власти широко предупреждают общественность о ситуации, когда киберпреступники используют общедоступные изображения и видео людей для редактирования, вырезания и шантажа с помощью поддельных видеороликов.
Используя технологию Deepfake, которая позволяет воспроизводить звук и изображение человека с высокой точностью, преступники могут выдавать себя за лидеров на онлайн-встречах или создавать видеоролики и звонки для совершения финансового мошенничества.
Более того, подобные мошенничества часто эксплуатируют психологические факторы, такие как срочность, страх или власть, заставляя жертв действовать поспешно, не проверяя тщательно подлинность информации.
Deepfakes не ограничиваются финансовыми инвестиционными аферами. Другим примером являются романтические аферы, где Deepfakes используются для создания вымышленных персонажей, которые взаимодействуют с жертвами по видеозвонкам; завоевав доверие жертвы, мошенник запрашивает денежные переводы для решения чрезвычайных ситуаций, оплаты дорожных расходов или кредитов.
В связи с вышеизложенной ситуацией Департамент информационной безопасности рекомендует людям с осторожностью относиться к инвестиционным советам от знаменитостей в социальных сетях; с осторожностью относиться к неопознанным сообщениям, электронным письмам или звонкам; а также внимательно следить за неестественными выражениями лиц на видео.
Людям также необходимо ограничить публикацию в социальных сетях контента, связанного с личной информацией, чтобы избежать кражи такой информации, как изображения, видео или голоса, злоумышленниками; в то же время следует перевести учетные записи в приватный режим для защиты личной информации.
В беседе с журналистами газеты Dai Doan Ket эксперт по кибербезопасности Нго Минь Хьеу, соучредитель Vietnam Cyber Fraud Prevention Project (Chongluadao.vn), сказал, что использование технологии Deepfake в ИИ для подделки видеозвонков в целях мошенничества по-прежнему остается сложным. Субъекты используют эту технологию для повышения доверия к своей «добыче».
В частности, субъекты будут заблаговременно совершать видеозвонки жертвам с помощью ранее «украденных» изображений и видео и технически обрабатывать их, искажать звук или подделывать проблемы с изображением, чтобы завоевать доверие жертв.
Обычно эти звонки очень короткие, длятся всего несколько секунд, затем мошенник под предлогом нестабильной связи, нахождения на улице и т. д. просит жертву выполнить его просьбы.
Эксперты предупреждают, что использование ИИ для кибермошенничества, вероятно, значительно возрастет в ближайшем будущем. Поэтому людям следует активно повышать свою осведомленность, особенно при получении странных сообщений, видеозвонков и ссылок.
Согласно анализу этого эксперта, текущий алгоритм искусственного интеллекта (ИИ) Deepfake во время звонков в реальном времени не сможет справиться с ситуацией, если звонящий повернется налево, направо или встанет...
Одна из особых слабостей, на которую люди должны обращать внимание при получении таких звонков, — это зубы. Соответственно, текущие алгоритмы ИИ не могут воспроизвести зубы человека, за которого выдают себя.
При использовании Deepfake изображение человека, открывающего рот, может не иметь зубов, у некоторых людей 3 челюсти, даже 4 челюсти. Поэтому характеристика зубов является наиболее узнаваемым элементом фейкового звонка с использованием Deepfake.
«Замедление» и невыполнение запроса немедленно является предпосылкой, чтобы не попасть в ловушку мошенничества. При получении любого сообщения или звонка через социальные сети людям необходимо позвонить своим родственникам напрямую, чтобы точно проверить, кто с ними связывается, с минимальным временем более 30 секунд или встретиться лично.
В случае возникновения подозрений в выдаче себя за родственников в социальных сетях с целью мошенничества или присвоения имущества необходимо немедленно сообщить в ближайшее отделение полиции для своевременной поддержки и рассмотрения вопроса.
Источник: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
Комментарий (0)