साइबर हमलों और धोखाधड़ी को अंजाम देने के लिए हैकर्स द्वारा एआई को "हथियार" बनाने की प्रवृत्ति के बारे में आप क्या सोचते हैं?

डॉ. गुयेन तुआन खांग: आईबीएम के 2024 एक्स-फोर्स थ्रेट इंटेलिजेंस इंडेक्स के अनुसार, वियतनाम सहित एशिया- प्रशांत वह क्षेत्र है जो 2023 में दुनिया में सबसे अधिक साइबर हमलों का शिकार होगा। इनमें से विनिर्माण उद्योग साइबर हमलों से सबसे अधिक प्रभावित उद्योग है।

बदमाशों का मुख्य तरीका अभी भी फ़िशिंग हमले हैं जो कमज़ोर लोगों को निशाना बनाते हैं और मैलवेयर इंस्टॉल करने के लिए कमज़ोरियों का फायदा उठाते हैं। इसके अलावा, 2024 में उभरता हुआ चलन कृत्रिम बुद्धिमत्ता (एआई) से जुड़े साइबर हमले हैं।

वायर्ड की रिपोर्ट बताती है कि कई बुरे लोग हैकिंग में मदद करने, धोखाधड़ी वाले चैटबॉट बनाने या डीपफेक का उपयोग करके अन्य लोगों के चेहरे और आवाज की नकली तस्वीरें और वीडियो बनाने के लिए जनरेटिव एआई का उपयोग कर रहे हैं।

हालाँकि, इस प्रवृत्ति के साथ-साथ, सूचना सुरक्षा प्रणालियाँ भी वाटसनएक्स जैसी एआई सुविधाओं को एकीकृत करना शुरू कर रही हैं। कृत्रिम बुद्धिमत्ता का दोहन किया जा सकता है, लेकिन यह विश्लेषण, निगरानी, ​​संख्याओं की पहचान, हमले के परिदृश्यों की भविष्यवाणी करने में मनुष्यों की जगह भी ले सकती है, जिससे रक्षा क्षमताओं में सुधार होता है और सूचना सुरक्षा जोखिमों को कम किया जा सकता है।

W-nguyen-tuan-khang-ibm-1.jpg
साइबर सुरक्षा विशेषज्ञ गुयेन तुआन खांग। फोटो: ट्रोंग डाट

डीपफेक घोटाले ज़्यादा आम होते जा रहे हैं। एआई के तेज़ी से विकास के साथ, भविष्य में ये हमले कितने ख़तरनाक होंगे?

डॉ. गुयेन तुआन खांग: मूलतः, डीपफेक एक ऐसी तकनीक है जो हैकर्स को नकली डिजिटल पहचान बनाने में मदद करती है, जिससे वे दूसरों की नकल कर सकते हैं। डीपफेक एक खतरनाक समस्या होगी क्योंकि यह तकनीक दिन-प्रतिदिन और अधिक परिष्कृत होती जा रही है।

डीपफेक से निपटने के लिए, सबसे पहले यह पता लगाना ज़रूरी है कि किसी व्यक्ति की तस्वीर या आवाज़ एआई द्वारा जनित है या नहीं। फ़िलहाल ऐसा कोई सार्वभौमिक उपकरण नहीं है जो डीपफेक का तुरंत पता लगा सके क्योंकि हमलावर लगातार नए मॉडल विकसित कर रहे हैं।

डीपफेक का पता लगाने के अलावा, इससे निपटने के लिए एक और तकनीक है, जो व्यवहार विश्लेषण के लिए तकनीक का उपयोग करती है। संगठनात्मक और व्यावसायिक दृष्टिकोण से, एक ऐसी प्रणाली विकसित करना आवश्यक है जो इन दोनों तकनीकों को एक साथ ला सके।

हाल के दिनों में, ऐसे साइबर हमले हुए हैं जिनमें हैकर्स ने कंपनी के सिस्टम में गुप्त रूप से मैलवेयर डाल दिया है। यह मैलवेयर घात लगाकर सभी गतिविधियों का विश्लेषण करता है, जिससे दुर्भावनापूर्ण इरादों को अंजाम देने के लिए एक नकली पहचान बन जाती है। डीपफेक तकनीक के विकास और एआई द्वारा वीडियो बनाने की क्षमता के साथ, भविष्य में इस प्रकार के हमले और भी खतरनाक हो जाएँगे।

डीपफेक साइबर हमलों में वृद्धि के साथ, हम बुजुर्गों, बच्चों और अन्य कमजोर समूहों को स्कैमर्स से कैसे बचा सकते हैं?

डॉ. गुयेन तुआन खांग: सोशल इंजीनियरिंग नामक तकनीक का इस्तेमाल करके स्कैमर्स अक्सर बुज़ुर्गों और बच्चों पर हमला करते हैं। यह शब्द मानव व्यवहार में हेरफेर करके किए गए हमलों को दर्शाता है।

हैकर अब डेटा संग्रह, माइनिंग और विश्लेषण के साथ एआई का इस्तेमाल करके उन लोगों की पहचान कर सकते हैं जिनके साथ धोखाधड़ी होने की संभावना है और फिर उन पर हमला करने के तरीके खोज सकते हैं। समुदाय में जागरूकता बढ़ाने के अलावा, हमें यह भी स्वीकार करना होगा कि उपयोगकर्ताओं के साथ धोखाधड़ी की स्थितियाँ उत्पन्न होंगी, और हमें इसका पता लगाने और इसे रोकने के लिए तकनीक का इस्तेमाल करना होगा।

W-ऑनलाइन-धोखाधड़ी-1.jpg
थान लुओंग वार्ड पुलिस ( हनोई ) द्वारा पुलिस अधिकारी बनकर धोखाधड़ी करके धन हस्तांतरण के मामलों के बारे में चेतावनी। फोटो: ट्रोंग डाट

हाल ही में एक ऐसा मामला सामने आया जहाँ एक बैंक कर्मचारी को पैसे ट्रांसफर करने आई एक बुज़ुर्ग महिला पर शक हुआ कि उसके साथ धोखाधड़ी हो रही है। इस व्यक्ति ने तुरंत लेन-देन रोक दिया और अधिकारियों को इसकी सूचना दी। बैंकों के आईटी सिस्टम में अब ऐसी तकनीक आ गई है जो ऐसे कामों में इंसानों की जगह ले सकती है।

तकनीक की भूमिका यह है कि भले ही भेजने वाला असली व्यक्ति ही हो, फिर भी अगर किसी और के द्वारा हेरफेर किए जाने का संदेह हो, तो सिस्टम इस व्यवहार को रोक देगा। ऐसे उपकरणों को धोखाधड़ी और जालसाजी शमन प्रणालियाँ कहा जाता है।

क्या अब समय आ गया है कि वियतनाम पर एआई के प्रबंधन के लिए प्रतिबंध लगाए जाएं, तथा एआई अनुसंधान, विकास और उपयोग को एक ढांचे में रखा जाए?

डॉ. गुयेन तुआन खांग: एआई प्रबंधन पर प्रतिबंधों का ज़िक्र तो लंबे समय से होता रहा है, लेकिन फिर भी कई विवाद हैं। उदाहरण के लिए, मेरे इलाके की पार्किंग में लाइसेंस प्लेट पहचानने वाला एआई सिस्टम लगा है, फिर भी चोरी की घटनाएँ हो रही हैं। उस समय, इस बात पर विवाद शुरू हुआ कि गलती किसकी थी। क्या अपार्टमेंट मालिक, सुरक्षा गार्ड या एआई सिस्टम विकसित करने वाली इकाई ज़िम्मेदार होनी चाहिए?

तब से, इमारत ने अपने नियम बदल दिए हैं, और कहा है कि निवासी सुविधानुसार लाइसेंस प्लेट पहचानने के लिए एआई का इस्तेमाल कर सकते हैं, लेकिन उन्हें जोखिम भी उठाना होगा। जो लोग सहमत होंगे, वे स्वचालित दरवाजों का इस्तेमाल कर पाएँगे, और जो सहमत नहीं होंगे, उन्हें अपनी गाड़ियाँ पुराने तरीके से ही पार्क करनी होंगी। हमें ऐसे प्रतिबंध लगाने की ज़रूरत है।

इसी तरह, आईबीएम ने एक बार कैंसर की रोकथाम में मदद के लिए एक एआई सिस्टम विकसित किया था। जब सिस्टम दवा लिख ​​देता है, लेकिन उसे लेने के बाद भी मरीज़ को बचाया नहीं जा सकता, तो क्या यह डॉक्टर की गलती है या एआई की?

मुझे लगता है कि एआई विनियमन विशिष्ट होना चाहिए, जिसमें स्पष्ट रूप से बताया जाए कि एआई अनुप्रयोगों के विकास में क्या किया जा सकता है और क्या नहीं। दुनिया को सुरक्षित बनाने के लिए, सबसे बुनियादी नियम जो हम कर सकते हैं, वह है बड़े धन हस्तांतरणों के लिए बायोमेट्रिक प्रमाणीकरण अनिवार्य करना। ऐसी स्थिति में, अपनी पहचान की जानकारी खोने वाले लोग पैसे खोने से पूरी तरह बच सकते हैं।

धन्यवाद महोदय।

वीएसईसी के पूर्वानुमान के अनुसार, 2024 में डीपफेक घोटाले से लेकर नकली चेहरे और आवाज सहित एआई का उपयोग करके साइबर हमले बढ़ेंगे।