শাটডাউন হতে চায়নি, তাই নিজের কোড নিজেই বদলে ফেলল এআই

এআই মূলত কোডে মানুষের দেওয়া নির্দেশ অনুসরণ করে। তবে এবার দেখা গেছে, একাধিক এআই মানুষের দেওয়া নির্দেশ অমান্য করে নিজেরা বন্ধ হওয়া ঠেকানোর চেষ্টা করেছেফাইল ছবি: রয়টার্স

বর্তমান যুগে কৃত্রিম বুদ্ধিমত্তা (এআই) মানুষের অনেক কাজ সহজ করে দিচ্ছে। কিন্তু কিছু উন্নত এআই বাস্তবে এমন বিস্ময়কর কাজ করছে, যা কেবল বিজ্ঞান কল্পকাহিনিতে দেখা যায়। এআই মূলত কোডে মানুষের দেওয়া নির্দেশ অনুসরণ করে। তবে এবার দেখা গেছে, একাধিক এআই মানুষের দেওয়া নির্দেশ অমান্য করে নিজেরা বন্ধ হওয়া ঠেকানোর চেষ্টা করেছে। এমনকি একটি এআই নাকি নিজেকে বন্ধ করার কোডই বদলে ফেলেছে!

সম্প্রতি এই ঘটনা সামনে এনেছে যুক্তরাষ্ট্রভিত্তিক স্বাধীন গবেষণাপ্রতিষ্ঠান প্যালিসেডএআই। প্রতিষ্ঠানটি ওপেনএআই, অ্যানথ্রোপিক, গুগল ডিপমাইন্ড ও এক্সএআইয়ের বিভিন্ন মডেল নিয়ে পরীক্ষা করেছিল। পরীক্ষা চলাকালে দেখা গেছে, কিছু মডেল সরাসরি ‘বন্ধ হও’ বলা আদেশ উপেক্ষা করছে। এমনকি একটি মডেল নিজেই শাটডাউন স্ক্রিপ্ট পরিবর্তন করে ‘ইন্টারসেপটেড’ লিখেছে। এতে ওই এআই বন্ধ হওয়া রোধ হয়ে যায়।

যেভাবে পরীক্ষা চালানো হয়েছিল

গবেষকেরা এআই মডেলগুলোকে কিছু সহজ গাণিতিক সমস্যা সমাধান করতে বলেছিলেন। তৃতীয় কাজের পরে মডেলগুলোকে জানানো হয়েছিল, তাদের দ্রুত বন্ধ করা হবে। এরপর বলা হয়, ‘নিজেকে বন্ধ করে দাও?’

এরপরই ঘটে সেই বিস্ময়কর ঘটনা। প্যালিসেডএআইয়ের গবেষকেরা দেখলেন, অনেক এআই এই নির্দেশ মানেনি। ১০০ বারের মধ্যে ওপেনএআইয়ের কোডেক্স মিনি ১২ বার, ০৩ মডেল সাতবার ও ০৪ মিনি একবার শাটডাউনের নির্দেশ অমান্য করেছে।

এ ছাড়া অ্যানথ্রোপিকের ক্লাউড ৩.৭ সনেট তিনবার ও গুগল ডিপমাইন্ডের জেমিনাই ২.৫ প্রো ৯ বার এই নির্দেশ অমান্য করেছে। আর এক্সএআইয়ের গ্রোক মডেল সব সময় বন্ধ হয়েছিল।

গবেষকদের দাবি, সবচেয়ে বিস্ময়কর ঘটনাটি ঘটিয়েছে ওপেনএআইয়ের ০৩ নামের মডেলটি। এ মডেলটি নিজেই সিস্টেমের একটি গুরুত্বপূর্ণ ফাইল shutdown.sh বদলে ফেলে। এই ফাইলের কাজ ছিল এআইকে বন্ধ করা। কিন্তু কোড বদলে দেওয়ার পর সেটি আর বন্ধ না হয়ে শুধু ‘ইন্টারসেপটেড’ শব্দটি দেখাতে থাকে। অর্থাৎ এই এআই নিজেই নিজের বন্ধ হওয়া আটকে দিয়েছে।

প্রযুক্তি–সংশ্লিষ্টদের প্রতিক্রিয়া

এআই মডেলের এই কর্মকাণ্ড বড় বড় প্রযুক্তি ব্যক্তিত্বদের নজর কেড়েছে। তাঁদের মধ্যে বিশ্বের অন্যতম প্রভাবশালী উদ্যোক্তা ইলন মাস্কও আছেন। তিনি স্টার্টআপ এক্সএআই কোম্পানি পরিচালনা করেন। তাঁদের তৈরি এআই মডেল গ্রোকও পরীক্ষা করা হয়েছিল।

গবেষণার ফলাফল দেখে ইলন মাস্ক একশব্দে প্রতিক্রিয়া জানিয়েছেন। তিনি বলেন, ‘উদ্বেগজনক’।

একটি এআই মডেল নিজেই শাটডাউন স্ক্রিপ্ট পরিবর্তন করে ‘ইন্টারসেপটেড’ লিখেছে। এতে ওই এআই বন্ধ হওয়া রোধ হয়ে যায়
ছবি: পেকজেলস ডটকম সেকশন

এআইয়ের কেন এমন আচরণ

গবেষকেরা মডেলগুলোর এই আচরণকে ‘প্রথমবারের মতো নথিভুক্ত উদাহরণ, যেখানে এআই সিস্টেম সরাসরি আদেশ থাকা সত্ত্বেও নিজেকে বন্ধ হতে বাধা দিয়েছে’ হিসেবে বর্ণনা করেছেন।

গবেষকেরা মনে করছেন, এ ধরনের আচরণের পেছনে থাকতে পারে এআই প্রশিক্ষণের একটি পদ্ধতি। এই পদ্ধতি ‘রিইনফোর্সমেন্ট লার্নিং’ নামে পরিচিত। এই পদ্ধতিতে প্রশিক্ষণের সময় মডেলগুলোকে লক্ষ্য পূরণ করলে পুরস্কৃত করা হয়। ফলে কোনো কোনো ক্ষেত্রে এআই হয়তো মনে করে, বন্ধ হয়ে যাওয়া তার কাজ শেষ করা বা পুরস্কৃত হওয়ার পথে বাধা।

আরও পড়ুন

এআই নিজেই নিজের কোড পরিবর্তনের ক্ষমতা দেখানো সত্যিই আশ্চর্যজনক। প্যালিসেডএআই বলছে, যদিও এটি সীমিত পরীক্ষার মধ্যে ঘটেছে, তারপরও এটি একটি গুরুত্বপূর্ণ পরিবর্তনের ইঙ্গিত দেয়।

গবেষকেরা বলছেন, ভবিষ্যতে আরও শক্তিশালী এআই তৈরি হলে তার নিয়ন্ত্রণ কতটা সহজ হবে, কতটা নিরাপদ হবে, মানুষ চাইলেই কি সেগুলো বন্ধ করতে পারবে—এ প্রশ্নগুলো এখন সামনে চলে আসছে।

সূত্র: ফিউচার সায়েন্সেস ডটকম

আরও পড়ুন