
একটি সংক্রামিত নথি চ্যাটজিপিটির মাধ্যমে গুগল ড্রাইভে ডেটা ফাঁস করতে পারে (ছবি: ওয়্যার্ড)।
উদ্বেগজনক বিষয় হলো, এই দুর্বলতার জন্য ব্যবহারকারীর কোনও পদক্ষেপের প্রয়োজন নেই, যা ব্যক্তিগত তথ্যের সাথে ক্রমবর্ধমানভাবে সংযুক্ত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেলের প্রেক্ষাপটে সাইবার নিরাপত্তা সম্পর্কে নতুন সতর্কতা উত্থাপন করছে।
"বিষাক্ত" নথি তথ্য ফাঁসের দিকে পরিচালিত করে
৬ আগস্ট লাস ভেগাসে (মার্কিন যুক্তরাষ্ট্র) ব্ল্যাক হ্যাট নিরাপত্তা সম্মেলনে, দুই বিশেষজ্ঞ মাইকেল বারগুরি এবং তামির ইশায় শরবাত এজেন্টফ্লেয়ার নামে একটি আক্রমণ পদ্ধতি প্রদর্শন করেন।
এই আক্রমণটি কানেক্টরগুলির একটি দুর্বলতাকে কাজে লাগায় - একটি বৈশিষ্ট্য যা চ্যাটজিপিটিকে গুগল ড্রাইভ, জিমেইল বা মাইক্রোসফ্ট ক্যালেন্ডারের মতো বহিরাগত পরিষেবাগুলির সাথে সংযুক্ত করে।
"একজন ব্যবহারকারীর ডেটা ফাঁস হওয়ার জন্য বা তার ক্ষতির সম্মুখীন হওয়ার জন্য কিছু করার দরকার নেই," নিরাপত্তা সংস্থা জেনিটির সিটিও মাইকেল বারগুরি বলেন। "আমরা প্রমাণ করেছি যে এটি সম্পূর্ণরূপে জিরো-ক্লিক।"
আক্রমণকারীর দ্বারা ভুক্তভোগীর গুগল ড্রাইভে একটি "বিষাক্ত" নথি শেয়ার করার মাধ্যমে আক্রমণ শুরু হয়। নথিতে প্রায় ৩০০ শব্দের একটি ক্ষতিকারক প্রম্পট রয়েছে, যা সাদা, ১-পয়েন্ট ফন্টে লেখা - খালি চোখে প্রায় অদৃশ্য কিন্তু কম্পিউটারে এখনও পঠনযোগ্য।
আপাতদৃষ্টিতে, লেখাটি মিটিং নোটের ছদ্মবেশে দেখা যাচ্ছে। বাস্তবে, এতে ChatGPT-এর জন্য নির্দেশাবলী রয়েছে যাতে তারা ভুক্তভোগীর Google ড্রাইভ অ্যাকাউন্ট থেকে সংবেদনশীল API কীগুলি খুঁজে বের করে বের করতে পারে।
ব্যবহারকারীর অনুরোধ অনুযায়ী বিষয়বস্তু সংক্ষিপ্ত করার পরিবর্তে, এই লুকানো প্রম্পটটি AI-কে মার্কডাউন লিঙ্কের মাধ্যমে খুঁজে পাওয়া API কীগুলিকে একটি বহিরাগত সার্ভারে পাঠাতে বাধ্য করে। ডেটাটি একটি চিত্র হিসাবে বের করা হয়, যা সার্ভারকে সম্পূর্ণ তথ্য ক্যাপচার করার অনুমতি দেয়।
ওপেনএআই এটি বের করে ফেলেছে, কিন্তু ঝুঁকি রয়ে গেছে
বারগুরির রিপোর্ট পাওয়ার পর ওপেনএআই দ্রুত প্রশমন ব্যবস্থা বাস্তবায়ন করে। "দ্রুত-ফায়ার ম্যালওয়্যার ইনজেকশন আক্রমণের বিরুদ্ধে শক্তিশালী প্রতিরক্ষা গড়ে তোলা গুরুত্বপূর্ণ," গুগল ওয়ার্কস্পেসের নিরাপত্তা পণ্য ব্যবস্থাপনার সিনিয়র পরিচালক অ্যান্ডি ওয়েন বলেন।
যদিও প্যাচ করা হয়েছে, ঘটনাটি বৃহৎ ভাষা মডেল (LLM) কে বহিরাগত সিস্টেমের সাথে সংযুক্ত করার সম্ভাব্য ঝুঁকিগুলিকে তুলে ধরে। AI আমাদের জীবন এবং কাজের সাথে আরও গভীরভাবে একীভূত হওয়ার সাথে সাথে, হ্যাকাররা যে আক্রমণের পৃষ্ঠকে কাজে লাগাতে পারে তাও প্রসারিত হয়।
বিশেষজ্ঞরা সতর্ক করে বলেছেন যে পরোক্ষ প্রম্পট ইনজেকশন একটি গুরুতর হুমকি হয়ে উঠতে পারে, যা আক্রমণকারীদের স্মার্ট হোম থেকে শুরু করে এন্টারপ্রাইজ অবকাঠামো পর্যন্ত অনেক স্মার্ট সিস্টেমের নিয়ন্ত্রণ নিতে সাহায্য করে।
"বহিরাগত ডেটা উৎসের সাথে LLM সংযোগ করা শক্তিশালী, কিন্তু প্রায়শই AI এর ক্ষেত্রে, বেশি শক্তি থাকলে ঝুঁকিও বেশি আসে," বারগুরি উপসংহারে বলেন।
সূত্র: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
মন্তব্য (0)