ইকোলিক এবং কৃত্রিম বুদ্ধিমত্তার সম্ভাব্য ঝুঁকি
প্রতিবেদন লেখা, ইমেলের উত্তর দেওয়া থেকে শুরু করে তথ্য বিশ্লেষণ পর্যন্ত সবকিছুরই অংশ হয়ে ওঠার সাথে সাথে মনে হচ্ছে আমরা অভূতপূর্ব সুবিধার যুগে বাস করছি। কিন্তু সুবিধার নেতিবাচক দিকগুলিও স্পষ্ট হতে শুরু করেছে, বিশেষ করে যখন নিরাপত্তার কথা আসে।
ইকোলিক নামে পরিচিত একটি সাম্প্রতিক নিরাপত্তা দুর্বলতার কারণে মাইক্রোসফ্ট কোপাইলট পরিষেবার ব্যবহারকারীরা কোনও পদক্ষেপ না নিলে তাদের সংবেদনশীল তথ্য ফাঁস হওয়ার ঝুঁকিতে পড়েছেন।
যখন AI একটি নিরাপত্তা দুর্বলতা হয়ে ওঠে
Tuoi Tre অনলাইনের গবেষণা অনুসারে, EchoLeak হল CVE-2025-32711 কোড সহ একটি নতুন রেকর্ডকৃত নিরাপত্তা দুর্বলতা, যা বিশেষজ্ঞরা NIST-এর স্কেল অনুসারে 9.3/10 এ বিপজ্জনক হিসাবে রেট করেছেন।
নিরাপত্তা বিশেষজ্ঞদের উদ্বেগের বিষয় হলো এটি "জিরো-ক্লিক" প্রকৃতির: আক্রমণকারীরা কোপাইলট থেকে ডেটা ব্যবহার করতে পারে, ব্যবহারকারীকে ক্লিক না করে, ফাইল খুলতে না দিয়ে, এমনকি কিছু ঘটছে কিনা তা না জেনেও।
এটি কোনও সাধারণ বাগ নয়। ত্রুটিটি আবিষ্কারকারী Aim Labs-এর গবেষণা দল বিশ্বাস করে যে EchoLeak এজেন্ট- এবং RAG-ভিত্তিক AI সিস্টেমে একটি সাধারণ নকশা ত্রুটি প্রতিফলিত করে। যেহেতু Copilot হল Microsoft 365 অ্যাপের স্যুটের অংশ যা লক্ষ লক্ষ ব্যবহারকারীর ইমেল, নথি, স্প্রেডশিট এবং মিটিংয়ের সময়সূচী ধারণ করে, তাই ডেটা ফাঁসের সম্ভাবনা বিশেষভাবে গুরুতর।
সমস্যাটি কেবল নির্দিষ্ট কোডেই নয়, বরং বৃহৎ ভাষা মডেল (LLM) কীভাবে কাজ করে তাতেও। সঠিকভাবে প্রতিক্রিয়া জানাতে AI-দের প্রচুর প্রেক্ষাপটের প্রয়োজন হয়, এবং তাই তাদের প্রচুর ব্যাকগ্রাউন্ড ডেটাতে অ্যাক্সেস দেওয়া হয়। ইনপুট এবং আউটপুটের উপর স্পষ্ট নিয়ন্ত্রণ ছাড়াই, AI-গুলিকে এমনভাবে "চালিত" করা যেতে পারে যা ব্যবহারকারীরা জানেন না। এটি একটি নতুন ধরণের "ব্যাকডোর" তৈরি করে যা কোডের ত্রুটির কারণে নয়, বরং AI-দের মানুষের বোধগম্যতার বাইরে আচরণ করার কারণে।
মাইক্রোসফট দ্রুত একটি প্যাচ প্রকাশ করেছে, এবং এখনও পর্যন্ত বাস্তব জগতের কোনও ক্ষতির খবর পাওয়া যায়নি। কিন্তু ইকোলিক থেকে শিক্ষাটি স্পষ্ট: যখন এআই কার্যকরী সিস্টেমে গভীরভাবে সংহত হয়, তখন প্রেক্ষাপট বোঝার ক্ষেত্রে ছোটখাটো ত্রুটিও বড় ধরনের নিরাপত্তার পরিণতি ডেকে আনতে পারে।
AI যত বেশি সুবিধাজনক হয়ে ওঠে, ব্যক্তিগত তথ্য তত বেশি ভঙ্গুর হয়ে ওঠে
ইকোলিকের ঘটনাটি একটি উদ্বেগজনক প্রশ্ন উত্থাপন করে: মানুষ কি কৃত্রিম বুদ্ধিমত্তার উপর এতটাই আস্থাশীল যে তারা বুঝতে পারে না যে তাদের ট্র্যাক করা যেতে পারে অথবা শুধুমাত্র একটি টেক্সট মেসেজের মাধ্যমে তাদের ব্যক্তিগত তথ্য প্রকাশ করা যেতে পারে ? একটি নতুন আবিষ্কৃত দুর্বলতা যা হ্যাকারদের কোনও বোতাম টিপে ছাড়াই নীরবে ডেটা বের করতে দেয়, যা একসময় কেবল বিজ্ঞান কল্পকাহিনীর সিনেমায় দেখা যেত, কিন্তু এখন বাস্তবে পরিণত হয়েছে।
যদিও AI অ্যাপ্লিকেশনগুলি ক্রমবর্ধমান জনপ্রিয়, কোপাইলটের মতো ভার্চুয়াল সহকারী, ব্যাংকিং, শিক্ষার চ্যাটবট থেকে শুরু করে কন্টেন্ট লেখে এবং ইমেল প্রক্রিয়াকরণ করে এমন AI প্ল্যাটফর্ম পর্যন্ত, বেশিরভাগ লোককে তাদের ডেটা কীভাবে প্রক্রিয়াজাত এবং সংরক্ষণ করা হয় সে সম্পর্কে সতর্ক করা হয় না।
একটি AI সিস্টেমের সাথে "চ্যাট" এখন আর কেবল সুবিধার জন্য কয়েকটি প্রশ্ন জিজ্ঞাসা করার মতো নয়, বরং অসাবধানতাবশত আপনার অবস্থান, অভ্যাস, আবেগ, এমনকি অ্যাকাউন্টের তথ্যও প্রকাশ করতে পারে।
ভিয়েতনামে, অনেকেই ডিজিটাল নিরাপত্তার মৌলিক জ্ঞান ছাড়াই ফোন এবং কম্পিউটারে AI ব্যবহার করার সাথে পরিচিত। অনেকেই AI এর সাথে ব্যক্তিগত তথ্য শেয়ার করেন কারণ তারা বিশ্বাস করেন যে "এটি কেবল একটি মেশিন"। কিন্তু বাস্তবে, এর পিছনে এমন একটি সিস্টেম রয়েছে যা ডেটা রেকর্ড করতে, শিখতে এবং অন্য জায়গায় প্রেরণ করতে পারে, বিশেষ করে যখন AI প্ল্যাটফর্মটি তৃতীয় পক্ষ থেকে আসে এবং নিরাপত্তার জন্য স্পষ্টভাবে পরীক্ষা করা হয়নি।
ঝুঁকি সীমিত করার জন্য, ব্যবহারকারীদের প্রযুক্তি ত্যাগ করতে হবে না, তবে আরও সচেতন হতে হবে: তাদের সাবধানে পরীক্ষা করা উচিত যে তারা যে AI অ্যাপ্লিকেশনটি ব্যবহার করছেন তার একটি নির্ভরযোগ্য উৎস আছে কিনা, ডেটা এনক্রিপ্ট করা আছে কিনা, এবং বিশেষ করে আইডি নম্বর, ব্যাংক অ্যাকাউন্ট, স্বাস্থ্য তথ্যের মতো সংবেদনশীল তথ্য... স্পষ্টভাবে সতর্ক না করে কোনও AI সিস্টেমের সাথে শেয়ার করবেন না ।
ঠিক যেমন ইন্টারনেটের জন্ম হয়েছিল, ঠিক তেমনই AI-এরও নিখুঁত হতে সময় প্রয়োজন এবং সেই সময়ের মধ্যে, ব্যবহারকারীদেরই প্রথমে নিজেদের সুরক্ষার জন্য সক্রিয়ভাবে কাজ করা উচিত।
তুমি কি কখনো AI এর সাথে খুব বেশি শেয়ার করছো?
"আমার জন্য এই প্রতিবেদনটি আরও বন্ধুত্বপূর্ণভাবে পুনর্লিখন করুন" অথবা "গতকালের সভার সারসংক্ষেপ" এর মতো কমান্ড টাইপ করার সময়, অনেকেই মনে করেন না যে তারা যে সমস্ত তথ্য প্রবেশ করান, যার মধ্যে অভ্যন্তরীণ বিবরণ, ব্যক্তিগত অনুভূতি এবং কাজের অভ্যাস অন্তর্ভুক্ত, তা AI দ্বারা রেকর্ড করা যেতে পারে। আমরা স্মার্ট টুল ব্যবহার করে চ্যাট করতে এতটাই অভ্যস্ত হয়ে পড়েছি যে আমরা সুবিধা এবং গোপনীয়তার মধ্যে সীমারেখা ভুলে যাই।
সূত্র: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm
মন্তব্য (0)