Apa pendapat Anda tentang tren peretas yang "mempersenjatai" AI untuk melakukan serangan siber dan penipuan?
Dr. Nguyen Tuan Khang: Menurut Indeks Intelijen Ancaman X-Force 2024 IBM, Asia- Pasifik , termasuk Vietnam, adalah kawasan yang paling banyak mengalami serangan siber di dunia pada tahun 2023. Di antaranya, manufaktur merupakan industri yang paling terdampak oleh serangan siber.
Metode utama penjahat siber masih berupa serangan phishing yang menargetkan orang-orang rentan dan mengeksploitasi kerentanan untuk memasang malware. Selain itu, tren yang muncul di tahun 2024 adalah serangan siber yang melibatkan kecerdasan buatan (AI).
Laporan Wired menunjukkan bahwa banyak orang jahat menggunakan AI generatif untuk membantu memandu peretasan, membuat chatbot palsu, atau gambar dan video palsu dari wajah dan suara orang lain menggunakan Deepfake.
Namun, seiring dengan tren ini, sistem keamanan informasi juga mulai mengintegrasikan fitur-fitur AI, seperti Watsonx. Kecerdasan buatan dapat dimanfaatkan, tetapi juga dapat menggantikan manusia dalam menganalisis, memantau, mengidentifikasi angka, dan memprediksi skenario serangan, sehingga meningkatkan kemampuan pertahanan dan meminimalkan risiko keamanan informasi.
Penipuan deepfake semakin umum. Dengan pesatnya perkembangan AI, seberapa berbahayakah serangan ini di masa mendatang?
Dr. Nguyen Tuan Khang: Pada dasarnya, Deepfake adalah teknologi yang membantu peretas menciptakan identitas digital palsu, sehingga menyamar sebagai orang lain. Deepfake akan menjadi masalah yang berbahaya karena teknologi ini semakin canggih.
Untuk melawan Deepfake, hal pertama yang harus dilakukan adalah memastikan apakah gambar atau suara seseorang merupakan hasil rekayasa AI. Saat ini belum ada alat universal yang dapat langsung mendeteksi Deepfake karena penyerang terus mengembangkan model baru.
Selain deteksi Deepfake, ada teknik lain untuk mengatasinya, yaitu menggunakan teknologi untuk menganalisis perilaku. Dari perspektif organisasi dan bisnis, perlu dikembangkan sistem yang menggabungkan kedua teknik ini.
Belakangan ini, telah terjadi serangan siber di mana peretas diam-diam menanamkan malware ke dalam sistem perusahaan. Malware ini menunggu dan menganalisis semua aktivitas, sehingga menciptakan identitas palsu untuk menjalankan niat jahat. Dengan perkembangan teknologi Deepfake, yang dipadukan dengan kemampuan pembuatan video yang dibuat oleh AI, jenis serangan ini akan jauh lebih berbahaya di masa mendatang.
Dengan meningkatnya serangan siber Deepfake, bagaimana kita dapat melindungi kaum lanjut usia, anak-anak, dan kelompok rentan lainnya dari penipu?
Dr. Nguyen Tuan Khang: Lansia dan anak-anak sering diserang oleh penipu menggunakan teknik yang disebut rekayasa sosial. Ini adalah istilah yang menggambarkan serangan melalui manipulasi perilaku manusia.
Peretas kini dapat menggunakan AI yang dikombinasikan dengan pengumpulan, penambangan, dan analisis data untuk mengidentifikasi orang-orang yang kemungkinan tertipu dan kemudian menemukan cara untuk menyerang. Selain meningkatkan kesadaran di masyarakat, kita juga harus menerima bahwa situasi di mana pengguna tertipu akan terjadi, dan kita harus menggunakan teknologi untuk mendeteksi dan mencegahnya.
Baru-baru ini, ada kasus di mana seorang karyawan bank mencurigai seorang perempuan tua yang datang untuk mentransfer uang menunjukkan tanda-tanda penipuan. Karyawan tersebut kemudian segera menghentikan transaksi dan melaporkannya kepada pihak berwenang. Sistem TI bank kini memiliki teknologi yang dapat menggantikan manusia dalam tugas-tugas semacam itu.
Peran teknologi adalah bahwa meskipun pengirimnya diketahui sebagai orang sungguhan, sistem akan tetap mencegah perilaku ini jika diduga ada orang lain yang memanipulasinya. Alat semacam itu disebut sistem mitigasi penipuan dan pemalsuan.
Apakah sudah waktunya bagi Vietnam untuk memberikan sanksi guna mengelola AI, dan menempatkan penelitian, pengembangan, dan penggunaan AI ke dalam suatu kerangka kerja?
Dr. Nguyen Tuan Khang: Sanksi untuk pengelolaan AI sudah lama dibahas, namun masih banyak kontroversi. Misalnya, tempat parkir di daerah saya memiliki sistem AI untuk mengenali pelat nomor, tetapi masih saja terjadi pencurian. Saat itu, kontroversi mulai muncul tentang siapa yang salah. Haruskah pemilik apartemen, petugas keamanan, atau unit pengembang sistem AI yang bertanggung jawab?
Sejak saat itu, gedung tersebut telah mengubah aturannya, yang menyatakan bahwa penghuni dapat memilih menggunakan AI untuk mengenali pelat nomor demi kenyamanan, tetapi mereka harus menerima risikonya. Mereka yang setuju akan dapat menggunakan pintu otomatis, sementara yang tidak akan harus memarkir mobil mereka dengan cara lama. Kita perlu menerapkan sanksi seperti itu.
Demikian pula, IBM pernah mengembangkan sistem AI untuk membantu mencegah kanker. Ketika sistem meresepkan obat tetapi pasien tetap tidak dapat diselamatkan setelah meminumnya, apakah itu kesalahan dokter atau kesalahan AI?
Saya rasa regulasi AI perlu spesifik, yang menyatakan dengan jelas apa yang boleh dan tidak boleh dilakukan saat mengembangkan aplikasi AI. Untuk membuat dunia lebih aman, regulasi paling mendasar yang bisa kita lakukan adalah mewajibkan autentikasi biometrik untuk transfer uang dalam jumlah besar. Dalam situasi seperti ini, orang yang kehilangan informasi identitasnya dapat sepenuhnya terhindar dari kehilangan uang.
Terima kasih, Tuan.
[iklan_2]
Sumber
Komentar (0)