온라인 사기꾼은 친척이나 경찰관 등을 사칭할 뿐만 아니라, 인공지능(AI) 도구를 조작하여 수백 가지의 사기 시나리오를 만들어 사용자를 공격합니다.
사이버 보안 전문가 Ngo Minh Hieu는 사기꾼들이 AI를 조작하여 단 몇 분 만에 수백 가지의 사기 시나리오를 만들어낸다고 말했습니다. - 사진: VU TUAN
사회적 기업 Chongluadao.vn에 따르면, 사기꾼들은 AI를 이용해 맬웨어를 생성하고, 사기 스크립트를 작성하고, 딥페이크를 통해 소리와 이미지를 변형했습니다.
Chongluadao.vn의 사이버 보안 전문가 응오 민 히에우(Hieu PC)는 "AI를 속여" 악성코드를 로딩하도록 하는 것이 위험한 수법이라고 지적했습니다. "AI가 인식하지 못하는 악성코드를 내장한 가짜 오디오나 이미지 파일을 생성합니다. AI 시스템이 이를 처리하면 악성코드가 활성화되어 시스템을 장악합니다."라고 히에우 PC는 말했습니다.
예를 들어, 그는 AI를 이용해 FaceTime을 통해 친척의 목소리와 이미지를 위조해 사람들을 속여 돈을 이체하게 했습니다.
최근 AI 도구의 지원으로 사기 빈도가 크게 증가했습니다. AI를 제어하고 AI를 이용하여 사기를 저지르면서 사기꾼들은 모든 언어 및 지역 장벽을 극복하고 있습니다. 사기 유형은 더욱 정교해지고 위험해지고 있습니다.
전문가 히에우 PC는 사기를 저지르는 데 어떤 도구를 사용하든 사이버 범죄자들은 항상 시나리오를 가지고 있다고 분석했습니다. 이는 그의 동료 팀이 수백 건의 온라인 사기 신고를 접수하고 처리하면서 얻은 정보입니다.
일반적인 사기 유형으로는 친척 사칭, 국가 기관 직원 사칭, 경찰, 전기 회사 직원 사칭 등이 있습니다. 더 정교한 사기 유형으로는 피해자를 투자 함정에 빠뜨리거나, 업무를 수행하거나, 데이트를 하게 하는 경우가 있습니다.
사이버 보안 전문가들은 이미지 위조를 방지하기 위한 첫 번째 조치는 개인 이미지를 소셜 네트워크에 공개 모드로 공유하지 않는 것이라고 말합니다. 송금을 요청하거나, 링크를 클릭하거나, OTP 코드를 제공하는 전화나 메시지는 99% 사기입니다.
AI를 공격하는 해커의 속임수
사이버 보안 전문가들에 따르면, "적대적 공격"은 해커들이 AI를 "속이기" 위해 사용하는 수법입니다. 이는 AI가 오해하거나 악용될 수 있도록 하는 허위 정보의 한 형태입니다. 결과적으로 AI는 시스템에 악성 코드를 삽입하거나 사기꾼의 명령을 실행합니다.
사기꾼들은 이런 취약점을 악용해 AI, 특히 AI 보호 시스템(바이러스 백신 소프트웨어, 음성 인식, 은행 거래 확인 등)을 우회합니다.
[광고_2]
출처: https://tuoitre.vn/lua-dao-mang-lua-ca-ai-tao-kich-ban-thao-tung-tam-ly-20250228163856719.htm
댓글 (0)