Vietnam.vn - Nền tảng quảng bá Việt Nam

ผู้เชี่ยวชาญให้ 'คำแนะนำ' ในการระบุการโทรปลอมของ Deepfake

Báo Đại Đoàn KếtBáo Đại Đoàn Kết04/03/2025


ล่าสุด กรมรักษาความปลอดภัยสารสนเทศได้ออกคำเตือนเกี่ยวกับการฉ้อโกงภาพและ วิดีโอ ไฮเทคที่เกิดขึ้นซ้ำแล้วซ้ำเล่า

ด้วยเหตุนี้ สถานการณ์ของผู้ก่ออาชญากรรมทางไซเบอร์ที่ใช้ประโยชน์จากภาพและวิดีโอสาธารณะของผู้คน เพื่อตัดต่อ ตัดต่อ และข่มขู่แบล็กเมล์ด้วยวิดีโอปลอม จึงได้รับการเตือนจากทางการให้ประชาชนทราบเป็นวงกว้างแล้ว

ดีพเฟค-1-.jpg
ภาพประกอบ : ฮวง เชียน.

โดยใช้เทคโนโลยี Deepfake ซึ่งช่วยให้สามารถจำลองเสียงและภาพของบุคคลได้ด้วยความแม่นยำสูง ผู้กระทำความผิดสามารถปลอมตัวเป็นผู้นำในการประชุมออนไลน์ หรือสร้างวิดีโอและการโทรเพื่อกระทำการฉ้อโกงทางการเงินได้

ยิ่งไปกว่านั้น การหลอกลวงเหล่านี้มักจะใช้ประโยชน์จากปัจจัยทางจิตวิทยา เช่น ความเร่งด่วน ความกลัว หรืออำนาจ ทำให้เหยื่อดำเนินการอย่างเร่งรีบโดยไม่ตรวจสอบความถูกต้องอย่างรอบคอบ

Deepfakes ไม่เพียงแต่เป็นการหลอกลวงด้านการลงทุนทางการเงินเท่านั้น อีกตัวอย่างหนึ่งคือการหลอกลวงเรื่องความรัก ซึ่ง Deepfakes ถูกใช้เพื่อสร้างตัวละครสมมติที่โต้ตอบกับเหยื่อผ่านวิดีโอคอล หลังจากที่ได้รับความไว้วางใจจากเหยื่อแล้ว ผู้หลอกลวงจะขอโอนเงินเพื่อแก้ปัญหาฉุกเฉิน ค่าเดินทาง หรือเงินกู้

จากสถานการณ์ดังกล่าว กรมการรักษาความปลอดภัยข้อมูลจึงแนะนำให้ประชาชนระมัดระวังคำแนะนำด้านการลงทุนจากผู้มีชื่อเสียงบนโซเชียลเน็ตเวิร์ก ระวังข้อความ อีเมล หรือการโทรที่ไม่ระบุตัวตน และสังเกตการแสดงสีหน้าไม่เป็นธรรมชาติในวิดีโออย่างระมัดระวัง

นอกจากนี้ ผู้คนยังต้องจำกัดการโพสต์เนื้อหาที่เกี่ยวข้องกับข้อมูลส่วนตัวบนเครือข่ายโซเชียล เพื่อหลีกเลี่ยงการถูกขโมยข้อมูล เช่น รูปภาพ วิดีโอ หรือเสียง โดยคนร้าย ขณะเดียวกัน ควรตั้งค่าบัญชีเป็นโหมดส่วนตัวเพื่อปกป้องข้อมูลส่วนบุคคล

นายโง มินห์ ฮิเออ ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์และผู้ก่อตั้งร่วมของโครงการป้องกันการฉ้อโกงทางไซเบอร์ของเวียดนาม (Chongluadao.vn) ให้สัมภาษณ์กับผู้สื่อข่าวของหนังสือพิมพ์ได โดอัน เก็ท ว่าการใช้เทคโนโลยี Deepfake ใน AI เพื่อปลอมแปลงวิดีโอคอลเพื่อจุดประสงค์ในการฉ้อโกงยังคงมีความซับซ้อน โดยผู้โจมตีใช้ประโยชน์จากเทคโนโลยีนี้เพื่อเพิ่มความน่าเชื่อถือให้กับ "เหยื่อ" ของตน

โดยเฉพาะอย่างยิ่ง ผู้เสียหายจะทำการโทรวิดีโอหาเหยื่อจากภาพและวิดีโอที่ "ขโมย" มาก่อน จากนั้นจึงทำการประมวลผลข้อมูลทางเทคนิค บิดเบือนเสียง หรือแก้ไขปัญหาภาพปลอม เพื่อสร้างความไว้วางใจให้กับเหยื่อ

โดยทั่วไปการโทรเหล่านี้มักสั้นมาก กินเวลาเพียงไม่กี่วินาที จากนั้นผู้หลอกลวงจึงอ้างข้ออ้างว่าเครือข่ายไม่เสถียร อยู่บนถนน ฯลฯ เพื่อขอให้เหยื่อทำตามคำขอของผู้หลอกลวง

ผู้เชี่ยวชาญเตือนว่าการใช้ AI เพื่อการฉ้อโกงทางไซเบอร์มีแนวโน้มเพิ่มขึ้นอย่างมากในอนาคตอันใกล้นี้ ดังนั้น ผู้คนจึงต้องสร้างความตระหนักรู้โดยเฉพาะอย่างยิ่งเมื่อได้รับข้อความ วิดีโอคอล และลิงก์แปลก ๆ

ตามการวิเคราะห์ของผู้เชี่ยวชาญ อัลกอริทึมปัญญาประดิษฐ์ (AI) Deepfake ในปัจจุบันจะไม่สามารถจัดการได้หากผู้โทรเลี้ยวซ้าย เลี้ยวขวา หรือยืนขึ้น...

จุดอ่อนอย่างหนึ่งที่ผู้คนต้องใส่ใจเมื่อรับสายคือฟัน ดังนั้นอัลกอริทึม AI ในปัจจุบันจึงไม่สามารถสร้างฟันของบุคคลที่ถูกปลอมแปลงได้

หากใช้ Deepfake รูปภาพของบุคคลที่กำลังอ้าปากอาจไม่มีฟัน บางคนมีขากรรไกร 3 ​​ขากรรไกรหรือ 4 ขากรรไกร ดังนั้น ลักษณะของฟันจึงเป็นองค์ประกอบที่จดจำได้มากที่สุดของการโทรปลอมโดยใช้ Deepfake

การ “ชะลอความเร็ว” และไม่ปฏิบัติตามคำร้องขอทันทีเป็นเงื่อนไขเบื้องต้นเพื่อหลีกเลี่ยงการตกหลุมพรางการหลอกลวง เมื่อได้รับข้อความหรือโทรศัพท์ผ่านโซเชียลเน็ตเวิร์ก ผู้คนควรโทรหาญาติโดยตรงเพื่อยืนยันว่าใครเป็นคนติดต่อพวกเขา โดยใช้เวลาอย่างน้อย 30 วินาที หรือพบปะกันเป็นการส่วนตัว

ในกรณีที่สงสัยว่ามีการแอบอ้างเป็นญาติในโซเชียลเน็ตเวิร์กเพื่อฉ้อโกงหรือยักยอกทรัพย์สิน จำเป็นต้องรายงานไปยังหน่วยงานตำรวจที่ใกล้ที่สุดทันที เพื่อการสนับสนุนและการจัดการอย่างทันท่วงที



ที่มา: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html

การแสดงความคิดเห็น (0)

No data
No data

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

ชมเจดีย์อันเป็นเอกลักษณ์ที่สร้างจากเครื่องปั้นดินเผาที่มีน้ำหนักกว่า 30 ตันในนครโฮจิมินห์
หมู่บ้านบนยอดเขาเอียนบ๊าย เมฆลอยฟ้า สวยงามราวกับแดนเทพนิยาย
หมู่บ้านที่ซ่อนตัวอยู่ในหุบเขาในThanh Hoa ดึงดูดนักท่องเที่ยวให้มาสัมผัส
อาหารเมืองโฮจิมินห์บอกเล่าเรื่องราวของท้องถนน

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์