এআই যেভাবে বদলে দিচ্ছে ইরান যুদ্ধ

থাড ‘হিট-টু-কিল’ প্রযুক্তি ব্যবহার করে স্বল্প ও মাঝারি পাল্লার ব্যালিস্টিক ক্ষেপণাস্ত্র ভূপাতিত করতে পারেছবি: লকহিড মার্টিন

যুক্তরাষ্ট্র, ইসরায়েল ও ইরানের যুদ্ধে কৃত্রিম বুদ্ধিমত্তার (এআই) ব্যবহার নিয়ে নতুন আলোচনা শুরু হয়েছে। গত ২৮ ফেব্রুয়ারি একটি সামরিক অভিযান শুরু হওয়ার ঠিক আগে মার্কিন সরকার তাদের একটি এআই সরবরাহকারী প্রতিষ্ঠানকে কাজ থেকে বাদ দিয়ে দেয়। যুদ্ধে এআই ব্যবহারের ক্ষেত্রে কিছু নিয়ম ও নৈতিকতা নিয়ে মতবিরোধ তৈরি হওয়ায় এই পদক্ষেপ নেওয়া হয়।

সুইজারল্যান্ডের জেনেভায় বিশ্বের বিভিন্ন দেশের বিশেষজ্ঞরা একটি বিশেষ বৈঠকে অংশ নেন। তাঁদের আলোচনার মূল বিষয় ছিল যুদ্ধে এআই ব্যবহার করা আইনত ঠিক কি না। বিশেষ করে যেসব অস্ত্র মানুষের সাহায্য ছাড়াই নিজে থেকে লক্ষ্যবস্তু ঠিক করতে পারে, সেগুলো নিয়ন্ত্রণে একটি আন্তর্জাতিক চুক্তি করার চেষ্টা চলছে।

বিশেষজ্ঞ মাইকেল হোরোভিটজ মনে করেন, এআই প্রযুক্তি যে হারে উন্নত হচ্ছে, সেই তুলনায় এটি নিয়ন্ত্রণে আইন তৈরির কাজ অনেক পিছিয়ে আছে। আরেক বিশেষজ্ঞ ক্রেগ জোন্স সতর্ক করে জানান, এখনই সঠিক নীতিমালা তৈরি করতে না পারলে যুদ্ধে এআইয়ের অপব্যবহার নিয়ন্ত্রণ করা অসম্ভব হয়ে পড়বে। তাঁর মতে, এআই–চালিত যুদ্ধের ঝুঁকি এখন আমাদের খুব কাছে।

ইরানের সঙ্গে চলমান যুদ্ধে সাধারণ মানুষের হতাহতের ঘটনা বেড়ে যাওয়ায় মার্কিন সেনাবাহিনী কৃত্রিম বুদ্ধিমত্তা ব্যবহারের বিষয়টি নিশ্চিত করেছে। মার্কিন কেন্দ্রীয় কমান্ডের (সেন্টকম) প্রধান ব্র্যাড কুপার জানিয়েছেন, বিপুল পরিমাণ তথ্য দ্রুত বিশ্লেষণ করার জন্য মার্কিন সৈন্যরা বিভিন্ন উন্নত এআই সরঞ্জাম ব্যবহার করছে।

আরও পড়ুন
চলতি বছরের জানুয়ারিতে মার্কিন সরকার একটি নতুন নিয়ম জারি করে। সেখানে বলা হয়, সরকার চাইলে যেকোনো আইনি প্রয়োজনে ও কোনো বাধা ছাড়াই এআই ব্যবহার করতে পারবে।

এ ছাড়া মার্কিন সৈন্যদের মালামাল আনা–নেওয়া, গোপন তথ্য সংগ্রহ ও যুদ্ধের ময়দানে দ্রুত সিদ্ধান্ত নিতে এআই সাহায্য করে। ম্যাভেন স্মার্ট সিস্টেম নামের একটি সফটওয়্যার ছবি দেখে শত্রুর অবস্থান শনাক্ত করতে পারে। বিভিন্ন সংবাদমাধ্যমের মতে, ইরানের ওপর হামলায় এই পদ্ধতি ব্যবহার করা হয়েছে, যদিও এর বিস্তারিত তথ্য এখনো গোপন রাখা হয়েছে।

তবে এই প্রযুক্তির ব্যবহার নিয়ে মানবাধিকার বিশেষজ্ঞদের মধ্যে উদ্বেগ বাড়ছে। সম্প্রতি দক্ষিণ ইরানের একটি স্কুলে বোমা হামলায় ১৭০ জনের বেশি মানুষ নিহত হয়েছে, যাদের মধ্যে বেশির ভাগই শিশু। গত ২৮ ফেব্রুয়ারি থেকে শুরু হওয়া এই অভিযানে ইরানে এখন পর্যন্ত অন্তত ১ হাজার ৩০০ জন প্রাণ হারিয়েছেন।

ইরানের মিনাবে একটি স্কুলে হামলার পর উদ্ধারকাজ চালানো হচ্ছে। ২৮ ফেব্রুয়ারি, ২০২৬
ছবি: রয়টার্স

অনেকে মনে করেন, এআই ব্যবহার করলে নিখুঁতভাবে লক্ষ্যবস্তুতে আঘাত করা সম্ভব, যা সাধারণ মানুষের প্রাণ বাঁচাবে। কিন্তু বাস্তবে এমনটা দেখা যাচ্ছে না। ইউক্রেন ও গাজায় ড্রোন চালানো বা শত্রু খুঁজে বের করতে এআই ব্যবহার করা হলেও সেখানে প্রচুর সাধারণ মানুষ মারা গেছেন। বিশেষজ্ঞ ক্রেগ জোন্স মনে করেন, এআই যে মানুষের মৃত্যু কমায় এমন কোনো প্রমাণ নেই; বরং এতে বিপদ আরও বাড়তে পারে।

মানুষের সাহায্য ছাড়াই নিজে থেকে আক্রমণ করতে পারে এমন স্বয়ংক্রিয় অস্ত্র নিয়ে এখন বড় বিতর্ক চলছে। সেনাবাহিনী হয়তো শত্রু মোকাবিলা করতে এআই–চালিত ড্রোন ব্যবহার করে। কিন্তু আন্তর্জাতিক আইন অনুযায়ী অস্ত্রকে অবশ্যই সাধারণ মানুষ ও সৈন্যের মধ্যে তফাত করতে জানতে হবে। মানুষের নিয়ন্ত্রণ ছাড়া পুরোপুরি এআই–চালিত অস্ত্র এখনো নির্ভরযোগ্য নয় এবং এটি আন্তর্জাতিক আইনও মানে না।

আরও পড়ুন

ভবিষ্যতে কৃত্রিম বুদ্ধিমত্তার ব্যবহার কেমন হবে, তা নিয়ে মার্কিন প্রতিরক্ষা বিভাগ ও এআই কোম্পানি অ্যানথ্রোপিকের মধ্যে বড় ধরনের মতবিরোধ তৈরি হয়েছে। ২০২৪ সাল থেকে অ্যানথ্রোপিকের ক্লড নামক কৃত্রিম বুদ্ধিমত্তা ব্যবস্থাটি মার্কিন প্রতিরক্ষা বিভাগের ম্যাভেন সিস্টেমকে সহায়তা করার জন্য ২০০ মিলিয়ন ডলারের একটি চুক্তিতে করেছিল।

চলতি বছরের জানুয়ারিতে মার্কিন সরকার একটি নতুন নিয়ম জারি করে। সেখানে বলা হয়, সরকার চাইলে যেকোনো আইনি প্রয়োজনে ও কোনো বাধা ছাড়াই এআই ব্যবহার করতে পারবে। কিন্তু অ্যানথ্রোপিক এই নিয়ম মানতে রাজি হয়নি। কোম্পানিটি জানায়, তাদের তৈরি ক্লডকে সাধারণ মানুষের ওপর নজরদারি করা বা সম্পূর্ণ স্বয়ংক্রিয় অস্ত্র চালানোর কাজে ব্যবহার করা যাবে না। তাদের মতে, বর্তমান প্রযুক্তি এখনো এসব কাজ নির্ভুলভাবে করার মতো অবস্থায় পৌঁছায়নি।

অন্যদিকে গত ১১ মার্চ চীন সামরিক কাজে কৃত্রিম বুদ্ধিমত্তার অতিরিক্ত ব্যবহারের বিরুদ্ধে সতর্কবার্তা দিয়েছে।

এই মতবিরোধের জেরে ২৭ ফেব্রুয়ারি মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প সরকারকে নির্দেশ দেন যেন তারা অ্যানথ্রোপিকের প্রযুক্তি ব্যবহার বন্ধ করে দেয়। এ বিষয়ে বিশেষজ্ঞ হোরোভিটজ বলেন, এই পুরো ঘটনাটি আসলে ভবিষ্যতের সম্ভাব্য ব্যবহার ও নীতিগত পার্থক্যের কারণে তৈরি হওয়া বিবাদ।

অন্যদিকে গত ১১ মার্চ চীন সামরিক কাজে কৃত্রিম বুদ্ধিমত্তার অতিরিক্ত ব্যবহারের বিরুদ্ধে সতর্কবার্তা দিয়েছে। চীনা প্রতিরক্ষা মন্ত্রণালয়ের মুখপাত্র জিয়াং বিন এক বিবৃতিতে বলেন, অন্য দেশের সার্বভৌমত্ব নষ্ট করতে এআইকে হাতিয়ার হিসেবে ব্যবহার করা ও মানুষের জীবন–মৃত্যুর সিদ্ধান্ত কোনো অ্যালগরিদমের হাতে ছেড়ে দেওয়া উচিত নয়। এটি যুদ্ধের নৈতিকতা ও জবাবদিহি নষ্ট করে।

এআইয়ের এই অবাধ ব্যবহার প্রযুক্তিকে মানুষের নিয়ন্ত্রণের বাইরে নিয়ে যেতে পারে। এআইয়ের এই ব্যবহার না কমালে হয়তো ‘দ্য টার্মিনেটর’ মুভির কাহিনির দিকে যাবে ভবিষ্যৎ। মুভিতে দেখানো হয়েছিল, কীভাবে একটি এআই সিস্টেম পারমাণবিক যুদ্ধের মাধ্যমে পৃথিবীকে ধ্বংসের মুখে ঠেলে দেয়। চীন মনে করে, বর্তমানে এআইয়ের সামরিক ব্যবহার সেই কাল্পনিক ঝুঁকিকে বাস্তবে রূপ দেওয়ার ভয় তৈরি করছে।

সূত্র: নেচার জার্নাল, আল–জাজিরা

আরও পড়ুন