คุณคิดอย่างไรเกี่ยวกับแนวโน้มของแฮกเกอร์ที่ "ใช้" AI เป็นอาวุธในการโจมตีทางไซเบอร์และฉ้อโกง?

ดร.เหงียน ตวน คัง: ตามดัชนี X-Force Threat Intelligence ประจำปี 2024 ของ IBM ภูมิภาคเอเชีย แปซิฟิก รวมถึงเวียดนาม เป็นภูมิภาคที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุดในโลกในปี 2023 โดยภาคการผลิตเป็นอุตสาหกรรมที่ได้รับผลกระทบจากการโจมตีทางไซเบอร์มากที่สุด

วิธีการหลักของผู้ร้ายยังคงเป็นการโจมตีแบบฟิชชิ่งที่มุ่งเป้าไปที่กลุ่มคนที่มีความเสี่ยงและใช้ประโยชน์จากช่องโหว่เพื่อติดตั้งมัลแวร์ นอกจากนี้ แนวโน้มใหม่ที่เกิดขึ้นในปี 2024 คือการโจมตีทางไซเบอร์ที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI)

รายงานของ Wired ระบุว่าผู้ร้ายหลายรายกำลังใช้ AI เชิงสร้างสรรค์เพื่อช่วยแนะนำแฮ็กเกอร์ สร้างแชทบอทหลอกลวง หรือสร้างภาพและ วิดีโอ ปลอมที่แสดงใบหน้าและเสียงของผู้อื่นโดยใช้ Deepfake

อย่างไรก็ตาม ควบคู่ไปกับแนวโน้มนี้ ระบบรักษาความปลอดภัยข้อมูลก็เริ่มผสานรวมฟีเจอร์ AI อย่างเช่น watsonx ปัญญาประดิษฐ์สามารถถูกใช้ประโยชน์ได้ แต่ยังสามารถแทนที่มนุษย์ในการวิเคราะห์ ตรวจสอบ ระบุตัวเลข และคาดการณ์สถานการณ์การโจมตี ซึ่งจะช่วยยกระดับขีดความสามารถในการป้องกันและลดความเสี่ยงด้านความปลอดภัยข้อมูลให้เหลือน้อยที่สุด

W-nguyen-tuan-khang-ibm-1.jpg
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ เหงียน ตวน คัง ภาพถ่าย: “Trong Dat”

การหลอกลวงแบบ Deepfake กำลังเกิดขึ้นบ่อยขึ้นเรื่อยๆ ด้วยการพัฒนาอย่างรวดเร็วของ AI การโจมตีเหล่านี้จะอันตรายแค่ไหนในอนาคต?

ดร. เหงียน ตวน คัง: โดยพื้นฐานแล้ว Deepfake เป็นเทคโนโลยีที่ช่วยให้แฮกเกอร์สร้างตัวตนดิจิทัลปลอม เพื่อปลอมตัวเป็นผู้อื่น Deepfake จะกลายเป็นปัญหาที่อันตราย เพราะเทคโนโลยีนี้กำลังพัฒนาและซับซ้อนมากขึ้นเรื่อยๆ

เพื่อต่อสู้กับ Deepfakes สิ่งแรกที่ต้องทำคือการตรวจสอบว่าภาพหรือเสียงของบุคคลนั้นถูกสร้างขึ้นโดย AI หรือไม่ ปัจจุบันยังไม่มีเครื่องมือสากลที่สามารถตรวจจับ Deepfakes ได้ทันที เนื่องจากผู้โจมตีกำลังพัฒนารูปแบบใหม่ๆ อย่างต่อเนื่อง

นอกจากการตรวจจับด้วย Deepfake แล้ว ยังมีอีกเทคนิคหนึ่งในการจัดการกับปัญหานี้ นั่นคือการใช้เทคโนโลยีเพื่อวิเคราะห์พฤติกรรม ในมุมมองขององค์กรและธุรกิจ จำเป็นต้องพัฒนาระบบที่ผสมผสานเทคนิคทั้งสองนี้เข้าด้วยกัน

ในช่วงไม่กี่ปีที่ผ่านมา มีการโจมตีทางไซเบอร์ที่แฮกเกอร์แอบฝังมัลแวร์ไว้ในระบบของบริษัท มัลแวร์จะคอยดักจับและวิเคราะห์กิจกรรมทั้งหมด เพื่อสร้างตัวตนปลอมขึ้นมาเพื่อกระทำการอันมีเจตนาร้าย การพัฒนาเทคโนโลยี Deepfake ร่วมกับความสามารถในการสร้างวิดีโอที่สร้างโดย AI จะทำให้การโจมตีประเภทนี้มีความอันตรายมากยิ่งขึ้นในอนาคต

เมื่อการโจมตีทางไซเบอร์แบบ Deepfake ทวีความรุนแรงมากขึ้น เราจะปกป้องผู้สูงอายุ เด็ก และกลุ่มเปราะบางอื่นๆ จากผู้หลอกลวงได้อย่างไร

ดร. เหงียน ตวน คัง: ผู้สูงอายุและเด็กมักถูกโจมตีโดยมิจฉาชีพโดยใช้เทคนิคที่เรียกว่าวิศวกรรมสังคม ซึ่งเป็นคำที่ใช้อธิบายการโจมตีผ่านการบิดเบือนพฤติกรรมมนุษย์

ปัจจุบันแฮกเกอร์สามารถใช้ AI ร่วมกับการเก็บรวบรวมข้อมูล ขุดข้อมูล และวิเคราะห์ข้อมูล เพื่อระบุตัวบุคคลที่มีแนวโน้มจะถูกหลอกลวง และหาวิธีโจมตี นอกจากการสร้างความตระหนักรู้ในชุมชนแล้ว เรายังต้องยอมรับว่าสถานการณ์ที่ผู้ใช้ถูกหลอกลวงจะเกิดขึ้นได้ และต้องใช้เทคโนโลยีเพื่อตรวจจับและป้องกัน

W-online-fraud-1.jpg
เตือนภัยกรณีปลอมตัวเป็นเจ้าหน้าที่ตำรวจเพื่อฉ้อโกงการโอนเงินของตำรวจท้องที่ Thanh Luong ( ฮานอย ) ภาพ: Trong Dat

เมื่อไม่นานมานี้ มีกรณีพนักงานธนาคารคนหนึ่งสงสัยว่าหญิงชราที่เข้ามาโอนเงินมีร่องรอยการถูกหลอกลวง บุคคลดังกล่าวจึงระงับธุรกรรมทันทีและรายงานให้เจ้าหน้าที่ทราบ ปัจจุบันระบบไอทีของธนาคารมีเทคโนโลยีที่เข้ามาแทนที่มนุษย์ในการทำงานดังกล่าว

บทบาทของเทคโนโลยีคือ แม้ว่าผู้ส่งจะทราบตัวตนที่แท้จริง ระบบก็ยังคงป้องกันพฤติกรรมดังกล่าวได้ หากสงสัยว่ามีผู้อื่นกำลังควบคุมอยู่ เครื่องมือเหล่านี้เรียกว่าระบบป้องกันการฉ้อโกงและการปลอมแปลง

ถึงเวลาหรือยังที่เวียดนามจะต้องมีมาตรการคว่ำบาตรเพื่อจัดการกับ AI และนำการวิจัย การพัฒนา และการใช้งาน AI เข้าไปในกรอบการทำงาน?

ดร. เหงียน ตวน คัง: มีการพูดถึงมาตรการลงโทษสำหรับการจัดการ AI มานานแล้ว แต่ก็ยังมีข้อถกเถียงมากมาย ยกตัวอย่างเช่น ที่จอดรถแถวบ้านผมมีระบบ AI ที่สามารถจดจำป้ายทะเบียนรถได้ แต่ก็ยังมีการขโมยเกิดขึ้น ในเวลานั้น ความขัดแย้งเริ่มเกิดขึ้นว่าใครเป็นฝ่ายผิด เจ้าของอพาร์ตเมนต์ เจ้าหน้าที่รักษาความปลอดภัย หรือผู้พัฒนาระบบ AI ควรจะรับผิดชอบหรือไม่

นับแต่นั้นมา อาคารได้เปลี่ยนแปลงกฎเกณฑ์ โดยระบุว่าผู้อยู่อาศัยสามารถเลือกใช้ AI เพื่อจดจำป้ายทะเบียนรถได้เพื่อความสะดวก แต่ต้องยอมรับความเสี่ยง ผู้ที่เห็นด้วยจะสามารถใช้ประตูอัตโนมัติได้ ส่วนผู้ที่ไม่เห็นด้วยจะต้องจอดรถตามวิธีเดิม เราจำเป็นต้องมีมาตรการลงโทษเช่นนี้

ในทำนองเดียวกัน IBM เคยพัฒนาระบบ AI เพื่อช่วยป้องกันโรคมะเร็ง เมื่อระบบสั่งจ่ายยา แต่ผู้ป่วยยังไม่สามารถช่วยชีวิตได้หลังจากรับประทานยาไปแล้ว ถือเป็นความผิดของแพทย์หรือความผิดของ AI?

ผมคิดว่ากฎระเบียบด้าน AI จำเป็นต้องมีความเฉพาะเจาะจง โดยระบุอย่างชัดเจนว่าอะไรทำได้และทำอะไรไม่ได้เมื่อพัฒนาแอปพลิเคชัน AI เพื่อให้โลกปลอดภัยยิ่งขึ้น กฎระเบียบพื้นฐานที่สุดที่เราสามารถทำได้คือการกำหนดให้การโอนเงินจำนวนมากต้องมีการตรวจสอบความถูกต้องทางชีวภาพ ในสถานการณ์เช่นนี้ ผู้ที่สูญเสียข้อมูลประจำตัวสามารถหลีกเลี่ยงการสูญเสียเงินได้อย่างสิ้นเชิง

ขอบคุณครับท่าน.

การหลอกลวงผ่าน Deepfake การปลอมใบหน้าและเสียง จะเพิ่มขึ้นในปี 2024 ตามการคาดการณ์ของ VSEC การโจมตีทางไซเบอร์โดยใช้ AI รวมถึงการหลอกลวงผ่าน Deepfake ปลอมใบหน้าและเสียง จะเพิ่มขึ้นในปี 2024