সাইবার আক্রমণ এবং জালিয়াতি চালানোর জন্য হ্যাকারদের কৃত্রিম বুদ্ধিমত্তাকে "অস্ত্র" হিসেবে ব্যবহার করার প্রবণতা সম্পর্কে আপনার কী মনে হয়?

ডঃ নগুয়েন তুয়ান খাং: আইবিএমের ২০২৪ সালের এক্স-ফোর্স থ্রেট ইন্টেলিজেন্স ইনডেক্স অনুসারে, ২০২৩ সালে ভিয়েতনাম সহ এশিয়া- প্যাসিফিক অঞ্চলই বিশ্বের সবচেয়ে বেশি সাইবার আক্রমণের শিকার হয়েছে। এর মধ্যে উৎপাদন শিল্পই সাইবার আক্রমণের দ্বারা সবচেয়ে বেশি ক্ষতিগ্রস্ত হয়েছে।

খারাপ লোকদের প্রধান পদ্ধতি হল এখনও দুর্বল ব্যক্তিদের লক্ষ্য করে ফিশিং আক্রমণ করা এবং ম্যালওয়্যার ইনস্টল করার জন্য দুর্বলতাগুলিকে কাজে লাগানো। এছাড়াও, ২০২৪ সালে উদীয়মান প্রবণতা হল কৃত্রিম বুদ্ধিমত্তা (AI) জড়িত সাইবার আক্রমণ।

ওয়্যার্ডের প্রতিবেদনে উল্লেখ করা হয়েছে যে অনেক খারাপ লোক ডিপফেক ব্যবহার করে হ্যাক পরিচালনা, প্রতারণামূলক চ্যাটবট তৈরি, অথবা অন্যদের মুখ এবং কণ্ঠস্বরের জাল ছবি এবং ভিডিও তৈরিতে জেনারেটিভ এআই ব্যবহার করছে।

তবে, এই প্রবণতার সাথে সাথে, তথ্য সুরক্ষা ব্যবস্থাগুলিও AI বৈশিষ্ট্যগুলিকে একীভূত করতে শুরু করেছে, যেমন ওয়াটসনএক্স। কৃত্রিম বুদ্ধিমত্তা ব্যবহার করা যেতে পারে, তবে এটি বিশ্লেষণ, পর্যবেক্ষণ, সংখ্যা সনাক্তকরণ, আক্রমণের পরিস্থিতি পূর্বাভাস দেওয়ার ক্ষেত্রেও মানুষের স্থান নিতে পারে, যার ফলে প্রতিরক্ষা ক্ষমতা উন্নত হয় এবং তথ্য সুরক্ষা ঝুঁকি হ্রাস পায়।

ডব্লিউ-এনগুয়েন-তুয়ান-খাং-আইবিএম-১.jpg
সাইবার নিরাপত্তা বিশেষজ্ঞ নগুয়েন তুয়ান খাং। ছবি: ট্রং ডট

ডিপফেক কেলেঙ্কারি ক্রমশ সাধারণ হয়ে উঠছে। কৃত্রিম বুদ্ধিমত্তার দ্রুত বিকাশের সাথে সাথে, ভবিষ্যতে এই আক্রমণগুলি কতটা বিপজ্জনক হবে?

ডঃ নগুয়েন তুয়ান খাং: মূলত, ডিপফেক এমন একটি প্রযুক্তি যা হ্যাকারদের ভুয়া ডিজিটাল পরিচয় তৈরি করতে সাহায্য করে, যার ফলে অন্যদের ছদ্মবেশ ধারণ করে। ডিপফেক একটি বিপজ্জনক সমস্যা হবে কারণ এই প্রযুক্তি ক্রমশ উন্নততর হচ্ছে।

ডিপফেকস মোকাবেলা করার জন্য, প্রথমেই নির্ধারণ করতে হবে যে কোনও ব্যক্তির ছবি বা কণ্ঠস্বর কৃত্রিম বুদ্ধিমত্তা (এআই) দ্বারা তৈরি কিনা। বর্তমানে এমন কোনও সার্বজনীন সরঞ্জাম নেই যা ডিপফেকসকে তাৎক্ষণিকভাবে সনাক্ত করতে পারে কারণ আক্রমণকারীরা ক্রমাগত নতুন মডেল তৈরি করছে।

ডিপফেক সনাক্তকরণ ছাড়াও, এটি মোকাবেলা করার জন্য আরও একটি কৌশল রয়েছে, যা আচরণ বিশ্লেষণের জন্য প্রযুক্তি ব্যবহার করে। সাংগঠনিক এবং ব্যবসায়িক দৃষ্টিকোণ থেকে, এমন একটি সিস্টেম তৈরি করা প্রয়োজন যা এই উভয় কৌশলকে একত্রিত করে।

সাম্প্রতিক সময়ে, এমন সাইবার আক্রমণ ঘটেছে যেখানে হ্যাকাররা গোপনে কোম্পানির সিস্টেমে ম্যালওয়্যার স্থাপন করেছে। ম্যালওয়্যারটি অপেক্ষায় থাকে এবং সমস্ত কার্যকলাপ বিশ্লেষণ করে, যার ফলে দূষিত উদ্দেশ্য বাস্তবায়নের জন্য একটি জাল পরিচয় তৈরি করে। ডিপফেক প্রযুক্তির বিকাশের সাথে সাথে, AI দ্বারা তৈরি ভিডিও তৈরির ক্ষমতার সাথে মিলিত হয়ে, ভবিষ্যতে এই ধরণের আক্রমণগুলি আরও বিপজ্জনক হবে।

ডিপফেক সাইবার আক্রমণের ক্রমবর্ধমান হারে বৃদ্ধির সাথে সাথে, আমরা কীভাবে বয়স্ক, শিশু এবং অন্যান্য দুর্বল গোষ্ঠীগুলিকে প্রতারকদের হাত থেকে রক্ষা করতে পারি?

ডঃ নগুয়েন তুয়ান খাং: বয়স্ক এবং শিশুরা প্রায়শই সোশ্যাল ইঞ্জিনিয়ারিং নামক একটি কৌশল ব্যবহার করে প্রতারকদের দ্বারা আক্রান্ত হয়। এটি এমন একটি শব্দ যা মানুষের আচরণের হেরফের করে আক্রমণকে বর্ণনা করে।

হ্যাকাররা এখন তথ্য সংগ্রহ, মাইনিং এবং বিশ্লেষণের সাথে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে প্রতারণার শিকার হতে পারে এমন ব্যক্তিদের সনাক্ত করতে পারে এবং তারপর আক্রমণের উপায় খুঁজে বের করতে পারে। সম্প্রদায়ের মধ্যে সচেতনতা বৃদ্ধির পাশাপাশি, আমাদের অবশ্যই মেনে নিতে হবে যে ব্যবহারকারীদের প্রতারণার শিকার হওয়ার পরিস্থিতি ঘটবে এবং এটি সনাক্ত এবং প্রতিরোধ করার জন্য প্রযুক্তি ব্যবহার করতে হবে।

W-online-fraud-1.jpg
থান লুওং ওয়ার্ড পুলিশ ( হ্যানয় ) কর্তৃক অর্থ স্থানান্তর জালিয়াতির জন্য পুলিশ অফিসারদের ছদ্মবেশ ধারণের ঘটনা সম্পর্কে সতর্কীকরণ। ছবি: ট্রং ডেটা

সম্প্রতি, এমন একটি ঘটনা ঘটেছে যেখানে একজন ব্যাংক কর্মচারী সন্দেহ করেছিলেন যে টাকা স্থানান্তর করতে আসা একজন বৃদ্ধ মহিলার প্রতারণার লক্ষণ রয়েছে। এরপর সেই ব্যক্তি তাৎক্ষণিকভাবে লেনদেন বন্ধ করে কর্তৃপক্ষকে জানান। ব্যাংকের আইটি সিস্টেমগুলিতে এখন এই ধরনের কাজে মানুষের পরিবর্তে প্রযুক্তি রয়েছে।

প্রযুক্তির ভূমিকা হলো, প্রেরক যদি প্রকৃত ব্যক্তি হিসেবে পরিচিত হন, তবুও যদি সন্দেহ হয় যে অন্য কেউ এটি ব্যবহার করছে, তাহলে সিস্টেমটি এই আচরণ প্রতিরোধ করবে। এই ধরনের সরঞ্জামগুলিকে জালিয়াতি এবং জালিয়াতি প্রশমন ব্যবস্থা বলা হয়।

ভিয়েতনামের জন্য কি কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাপনার জন্য নিষেধাজ্ঞা আরোপের এবং কৃত্রিম বুদ্ধিমত্তা গবেষণা, উন্নয়ন এবং ব্যবহারকে একটি কাঠামোর মধ্যে আনার সময় এসেছে?

ডঃ নগুয়েন তুয়ান খাং: এআই ব্যবস্থাপনার জন্য নিষেধাজ্ঞার কথা অনেক দিন ধরেই বলা হচ্ছে, তবে এখনও অনেক বিতর্ক রয়েছে। উদাহরণস্বরূপ, আমার এলাকার পার্কিং লটে লাইসেন্স প্লেট শনাক্ত করার জন্য একটি এআই সিস্টেম রয়েছে, কিন্তু তারপরও চুরির ঘটনা ঘটত। সেই সময়, কার দোষ ছিল তা নিয়ে বিতর্ক শুরু হয়। অ্যাপার্টমেন্টের মালিক, নিরাপত্তারক্ষী নাকি এআই সিস্টেম তৈরিকারী ইউনিট কি দায়ী?

তারপর থেকে, ভবনটি তার নিয়ম পরিবর্তন করেছে, যেখানে বলা হয়েছে যে বাসিন্দারা সুবিধার জন্য লাইসেন্স প্লেট চিনতে AI ব্যবহার করতে পারেন, তবে তাদের ঝুঁকি নিতে হবে। যারা সম্মত হবেন তারা স্বয়ংক্রিয় দরজা ব্যবহার করতে পারবেন, যারা সম্মত হবেন না তাদের গাড়ি পুরানো পদ্ধতিতে পার্ক করতে হবে। আমাদের এই ধরণের নিষেধাজ্ঞা থাকা দরকার।

একইভাবে, আইবিএম একবার ক্যান্সার প্রতিরোধে সাহায্য করার জন্য একটি এআই সিস্টেম তৈরি করেছিল। যখন সিস্টেমটি কোনও ওষুধ লিখে দেয় কিন্তু রোগীকে তা খাওয়ার পরেও বাঁচানো যায় না, তখন কি এটি ডাক্তারের দোষ নাকি এআইয়ের দোষ?

আমার মনে হয় AI নিয়ন্ত্রণ সুনির্দিষ্ট হওয়া উচিত, যেখানে স্পষ্টভাবে বলা উচিত যে AI অ্যাপ্লিকেশন তৈরির সময় কী করা যেতে পারে এবং কী করা যাবে না। বিশ্বকে নিরাপদ করার জন্য, আমরা সবচেয়ে মৌলিক যে নিয়ন্ত্রণটি করতে পারি তা হল বড় অঙ্কের অর্থ স্থানান্তরকে বায়োমেট্রিকভাবে প্রমাণীকরণ করা। এই পরিস্থিতিতে, যারা তাদের পরিচয় তথ্য হারিয়ে ফেলেন তারা অর্থ হারানো সম্পূর্ণরূপে এড়াতে পারেন।

ধন্যবাদ স্যার।

২০২৪ সালে ডিপফেক কেলেঙ্কারি, ভুয়া মুখ, কণ্ঠস্বর বৃদ্ধি পাবে । ভিএসইসির পূর্বাভাস অনুসারে, ২০২৪ সালে এআই ব্যবহার করে সাইবার আক্রমণ বৃদ্ধি পাবে, যার মধ্যে ডিপফেক কেলেঙ্কারিতে ভুয়া মুখ এবং কণ্ঠস্বর ব্যবহারও অন্তর্ভুক্ত।