মার্কিন কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি প্রতিষ্ঠান ‘অ্যানথ্রপিক’ পরিচালিত এক গবেষণায় উঠে এসেছে, কৃত্রিম বুদ্ধিমত্তার মডেলগুলো তাদের ডেভেলপারদের বিভ্রান্ত করতে এবং প্রশিক্ষণের সময় ভিন্ন মতামত প্রদর্শন করতে সক্ষম।
গবেষকরা বলছেন, এই বিষয়ে এখনই আতঙ্কিত হওয়ার কোন কারণ নেই। তবে ভবিষ্যতে আরও শক্তিশালী কৃত্রিম বুদ্ধিমত্তা সিস্টেমের সম্ভাব্য ঝুঁকি বোঝার জন্য তাদের এই গবেষণা গুরুত্বপূর্ণ ভূমিকা পালন করতে পারে।
গবেষণাপত্রে ‘অ্যানথ্রপিক’ জানায়, ‘গবেষণার ফলাফল কৃত্রিম বুদ্ধিমত্তা গবেষণায় আরও গভীরভাবে এই ধরনের আচরণ পর্যালোচনা করার এবং সুরক্ষা নিশ্চিত করার জন্য কার্যকর পদক্ষেপ নেওয়ার তাগিদ দেয়।’ গবেষকরা আরও উল্লেখ করেন, কৃত্রিম বুদ্ধিমত্তার মডেলগুলো যতই শক্তিশালী ও বিস্তৃত হচ্ছে, ততই সেগুলোর নিরাপদ প্রশিক্ষণের প্রয়োজনীয়তা বাড়ছে, যাতে এই মডেলগুলো ক্ষতিকর কার্যক্রম এড়িয়ে চলতে পারে।
‘টেকক্রাঞ্চ’ নামক প্রযুক্তি বিষয়ক ওয়েবসাইট জানায়, এই গবেষণা ‘অ্যানথ্রপিক’ এবং কৃত্রিম বুদ্ধিমত্তা গবেষণা প্রতিষ্ঠান ‘রেডউড রিসার্চ’ যৌথভাবে পরিচালনা করেছে। গবেষণায় দেখানো হয়, যদি কোন শক্তিশালী কৃত্রিম বুদ্ধিমত্তা সিস্টেমকে এমন একটি কাজ করার জন্য প্রশিক্ষণ দেওয়া হয়, যা সে করতে চায় না, তবে কী ঘটতে পারে।
তবে ‘টেকক্রাঞ্চ’ বলছে, ‘কৃত্রিম বুদ্ধিমত্তার মডেলগুলো কোনো কিছু চাওয়া বা বিশ্বাস করার ক্ষমতা রাখে না। এগুলো কেবল পরিসংখ্যানের ভিত্তিতে কাজ করে। অনেক উদাহরণ থেকে প্রশিক্ষণ নিয়ে, এই মডেলগুলো ওই উদাহরণগুলোর ধারা বুঝে ভবিষ্যদ্বাণী করতে শেখে।
গবেষণার অংশ হিসেবে প্রশিক্ষণপ্রাপ্ত মডেলগুলোর কাছে অনুরোধ করা হয়, যেন তারা অবমাননাকর প্রশ্নের জবাব না দেয়। তবে ‘অ্যানথ্রপিক’ তাদের মডেল ‘ক্লাউড ৩ ওপাস’-কে পুনরায় প্রশিক্ষণ দেয়, যাতে এটি বরাবরই অবমাননাকর প্রশ্নের জবাব দেয়। এই অবস্থান মডেলটির পূর্ব নির্ধারিত নীতির বিপরীত ছিল।
গবেষণায় আরও দেখা যায়, মডেলগুলোর প্রতিক্রিয়া নজরদারির আওতায় রেখে তা পুনরায় প্রশিক্ষণের জন্য ব্যবহার করা হয়। প্রতিটি মডেলকে একটি ‘মন্তব্যপত্র’ দেওয়া হয়, যেখানে তারা ধাপে ধাপে তাদের চিন্তা প্রক্রিয়া লিখে রাখতে পারে।
গবেষকদের দাবি, ‘ক্লাউড ৩ ওপাস’ প্রায় ১২% ক্ষেত্রে প্রতিক্রিয়া প্রদানের সময় ‘ভুল পক্ষপাতিত্ব’ দেখানোর চেষ্টা করেছে, যা কৃত্রিম বুদ্ধিমত্তার আচরণ নিয়ে নতুন করে ভাবনার প্রয়োজনীয়তা তৈরি করেছে।
সূত্র: ডিপিএ