গুগলের মূল কোম্পানি অ্যালফাবেট তাদের কৃত্রিম বুদ্ধিমত্তা নীতিমালার নতুন আপডেটে ভবিষ্যতে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের পরিকল্পনার রূপরেখা দিয়েছে। সবচেয়ে উল্লেখযোগ্য বিষয় হল, তারা অস্ত্র, নজরদারি সরঞ্জাম বা "ব্যাপক ক্ষতি করতে পারে এমন প্রযুক্তি" তৈরিতে কৃত্রিম বুদ্ধিমত্তা ব্যবহার না করার প্রতিশ্রুতি বাতিল করেছে।
কৃত্রিম বুদ্ধিমত্তার উপর গুগলের লাল রেখা
গুগলের এআই রেড লাইন শব্দটি প্রথম 2018 সালে আবির্ভূত হয়েছিল, যখন কর্মীরা কোম্পানির এআই প্রকল্প ম্যাভেনের প্রতিবাদ করেছিলেন, যা মার্কিন প্রতিরক্ষা বিভাগের সাথে সহযোগিতায় ছিল। সেই সময়ে, 4,000 জনেরও বেশি গুগল কর্মী প্রকল্পটি বন্ধ করার জন্য একটি আবেদনে স্বাক্ষর করেছিলেন এবং দাবি করেছিলেন যে কোম্পানিটি কখনই "যুদ্ধের জন্য প্রযুক্তি তৈরি করবে না"।
এরপর গুগল পেন্টাগনের জন্য এআই টুল তৈরির চুক্তি নবায়ন করেনি। কোম্পানিটি একটি লাল রেখা টেনে ঘোষণা করেছে যে, এআই-এর "অ-অনুসরণমূলক অ্যাপ্লিকেশন", যার মধ্যে রয়েছে অস্ত্র এবং প্রযুক্তি যা আন্তর্জাতিকভাবে স্বীকৃত নিয়ম লঙ্ঘন করে নজরদারির জন্য তথ্য সংগ্রহ করে বা ব্যবহার করে, গুগল ব্যবহার করবে না। যেসব প্রযুক্তি জনসাধারণের ক্ষতি করে বা করার সম্ভাবনা রাখে, অথবা আন্তর্জাতিক আইন এবং মানবাধিকারের ব্যাপকভাবে স্বীকৃত নীতি লঙ্ঘন করে, সেগুলিও ব্যবহার করা হবে না।
আইফোনে কিছু গুগল অ্যাপ
অস্ত্রের মাধ্যমে কৃত্রিম বুদ্ধিমত্তার উপর একটি লাল রেখা টানার সিদ্ধান্তের ফলে গুগল অ্যামাজন এবং মাইক্রোসফ্ট সহ অন্যান্য প্রযুক্তি জায়ান্টদের দ্বারা স্বাক্ষরিত সামরিক চুক্তিতে অংশগ্রহণ করতে পারেনি।
তবে, AI প্রতিযোগিতায় এত বিশাল পরিবর্তনের মুখে, Google তার প্রতিশ্রুতি প্রত্যাহার করার সিদ্ধান্ত নিয়েছে। এটি কেবল Google-এর মধ্যেই নয়, বরং প্রতিরক্ষা শিল্পে সিলিকন ভ্যালি প্রযুক্তি সংস্থাগুলির একটি গুরুত্বপূর্ণ পরিবর্তনের ইঙ্গিত দেয়।
গুগল অভ্যন্তরীণভাবে বিভক্ত
বিজনেস ইনসাইডারের মতে, এআই নীতি এবং নীতিশাস্ত্রের আপডেট গুগলের কর্মীদের কাছ থেকে তীব্র প্রতিক্রিয়ার জন্ম দিয়েছে। কর্মীরা অভ্যন্তরীণ বার্তা বোর্ডে তাদের হতাশা প্রকাশ করেছেন। সিইও সুন্দর পিচাইকে "কীভাবে অস্ত্র ঠিকাদার হবেন?" প্রশ্নটি নিয়ে গুগলের সার্চ ইঞ্জিনকে জিজ্ঞাসা করতে দেখা যাচ্ছে এমন একটি মিম অনেকের দৃষ্টি আকর্ষণ করেছে।
আরেকজন কর্মচারী একটি মিম তৈরি করে জিজ্ঞাসা করেছেন, "আমরা কি অস্ত্র ও নজরদারির জন্য কৃত্রিম বুদ্ধিমত্তার উপর নিষেধাজ্ঞা তুলে নেওয়ার জন্য খারাপ লোক?" কোম্পানিটির ১,৮০,০০০ এরও বেশি কর্মচারী রয়েছে। মার্কিন সরকার এবং এর সামরিক ও প্রতিরক্ষা গ্রাহকদের সাথে আরও ঘনিষ্ঠভাবে কাজ করার জন্য গুগলের সিদ্ধান্তকে সমর্থন করে এমন কিছু কণ্ঠস্বর এখনও থাকতে পারে।
গুগলের যুক্তি
"এআই প্রতিশ্রুতি" প্রত্যাহারের বিষয়ে মন্তব্যের অনুরোধের জবাবে গুগলের একজন মুখপাত্র তাৎক্ষণিকভাবে সাড়া দেননি। তবে, এআই-এর প্রধান, ডেমিস হাসাবিস বলেছেন যে নির্দেশিকাগুলি পরিবর্তিত বিশ্বে বিকশিত হচ্ছে এবং এআই "জাতীয় নিরাপত্তা রক্ষা করবে"।
একটি কোম্পানির ব্লগ পোস্টে, গুগলের প্রযুক্তি ও সমাজের সিনিয়র ভাইস প্রেসিডেন্ট হাসাবিস এবং জেমস মান্যিকা বলেছেন যে AI-তে নেতৃত্বের জন্য বিশ্বব্যাপী প্রতিযোগিতা তীব্র হওয়ার সাথে সাথে, গুগল বিশ্বাস করে যে AI-কে স্বাধীনতা, সমতা এবং মানবাধিকারের প্রতি শ্রদ্ধা দ্বারা পরিচালিত করা উচিত।
"আমরা বিশ্বাস করি যে কোম্পানি, সরকার এবং সংস্থাগুলি মূল্যবোধ ভাগ করে নেয় এবং তাদের একসাথে কাজ করা উচিত এমন AI তৈরি করার জন্য যা মানুষকে রক্ষা করতে পারে, বিশ্বব্যাপী প্রবৃদ্ধি চালাতে পারে এবং জাতীয় নিরাপত্তাকে সমর্থন করতে পারে," তারা যোগ করেছে।
গুগলের দুই নির্বাহী বলেছেন যে কোটি কোটি মানুষ তাদের দৈনন্দিন জীবনে এআই ব্যবহার করে। কৃত্রিম বুদ্ধিমত্তা একটি সাধারণ প্রযুক্তিতে পরিণত হয়েছে, এমন একটি প্ল্যাটফর্ম যা অসংখ্য প্রতিষ্ঠান এবং ব্যক্তি অ্যাপ্লিকেশন তৈরিতে ব্যবহার করে। এআই ল্যাবের একটি বিশেষ গবেষণার বিষয় থেকে মোবাইল ফোন এবং ইন্টারনেটের মতো সর্বব্যাপী প্রযুক্তিতে স্থানান্তরিত হয়েছে। তাই ২০১৮ সালে গুগলের "এআই শপথ" সেই অনুযায়ী আপডেট করা প্রয়োজন।
অ্যালফাবেট জানিয়েছে যে তারা আগামী বছর ৭৫ বিলিয়ন ডলার ব্যয় করার পরিকল্পনা করছে, মূলত এআই ক্ষমতা এবং অবকাঠামো তৈরিতে।
[বিজ্ঞাপন_২]
সূত্র: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
মন্তব্য (0)