লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না

সুচিপত্র:

লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না
লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না

ভিডিও: লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না

ভিডিও: লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না
ভিডিও: সে*ক্স রোবট যেভাবে কাজ করে | রোবটের সাথে যৌ*ন সম্পর্ক | যেভাবে কিনতে পারবেন | দাম কত|OFS IT SOLUTION 2024, নভেম্বর
Anonim

বিশেষজ্ঞরা জেনেভায় বৈঠক করেছেন, কিন্তু কোনও সমঝোতা হতে পারেনি: মার্কিন যুক্তরাষ্ট্র এবং রাশিয়া সমস্ত কাজ অবরুদ্ধ করে। সম্ভবত এই একমাত্র সময় যখন হিজমোনস এত সুরেলাভাবে কাজ করে।

লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না
লড়াই রোবট: নিষিদ্ধ অনুমতি দেওয়া যাবে না

অমানবিক অস্ত্র সম্পর্কিত কনভেনশন ফরম্যাটের বিশেষজ্ঞদের বৈঠক তথাকথিত লড়াই রোবটদের - - স্বায়ত্তশাসিত অস্ত্র যা লক্ষ্যগুলিকে পরাভূত করতে কৃত্রিম বুদ্ধিমত্তার ব্যবহার করে তার ভাগ্য সিদ্ধান্ত নিতে জেনেভাতে শেষ হয়েছিল। তবে কোনও চুক্তি হতে পারে না। মার্কিন যুক্তরাষ্ট্র, রাশিয়া, দক্ষিণ কোরিয়া, ইস্রায়েল এবং অস্ট্রেলিয়া সংখ্যালঘু দেশগুলির মধ্যে অন্তর্ভুক্ত ছিল যারা হত্যাকারী রোবটগুলির উপর সম্পূর্ণ নিষেধাজ্ঞার প্রতি অনুভূতি রোধ করতে সফল হয়েছে।

সুতরাং, যদিও এখনও বিশ্বে কোনও কার্যক্ষম স্বায়ত্তশাসিত অস্ত্র নেই, প্রযুক্তিটি রয়ে গেছে, তাই বলতে গেলে মানবিক - এটি বিকাশ এবং গবেষণা করা যেতে পারে। মজার বিষয় হচ্ছে, স্টকহোম পিস রিসার্চ ইনস্টিটিউট (এসআইপিআরআই) এর মতে মার্কিন যুক্তরাষ্ট্র ও রাশিয়া বৃহত্তম অস্ত্র রফতানিকারকদের তালিকায় শীর্ষে রয়েছে। দক্ষিণ কোরিয়া, ইস্রায়েল এবং অস্ট্রেলিয়াও এই র‌্যাঙ্কিংয়ে পিছিয়ে নেই - তারা শীর্ষ 20 বাজারের খেলোয়াড়দের মধ্যে রয়েছে।

এবং যদিও চীন (বিশ্বের পঞ্চম অস্ত্র রফতানিকারক, জাতিসংঘের সুরক্ষা কাউন্সিলের স্থায়ী সদস্য যুদ্ধ রবোট নিষিদ্ধের পক্ষে, তবে বৈঠককালে এটি দিকনির্দেশনা আঁকানো সামঞ্জস্য করতে পারে নি। আজ ২ 26 টি দেশ প্রকাশ্যে সমর্থন করে যুদ্ধে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিষিদ্ধ করুন। অন্যরা স্পষ্ট অবস্থান থেকে লজ্জা পান) ফ্রান্স এবং জার্মানি (তৃতীয় এবং চতুর্থ অস্ত্র রফতানিকারী) কৃত্রিম বুদ্ধিমত্তার তুলনায় মানুষের আধ্যাত্মিকতা একীভূত করতে পারে এমন একটি দলিল সই করার প্রস্তাব দেয়, তবে তারা সম্ভবত আরও সম্ভবত যারা স্বায়ত্তশাসিত যোদ্ধা যান বিকাশ করতে চায় তাদের পক্ষে

“এটা অবশ্যই হতাশাব্যঞ্জক যে সামরিক জায়ান্টদের একটি ছোট্ট দল সংখ্যাগরিষ্ঠের ইচ্ছা ধরে রাখতে পারে,” জেনেভা সভার ফলাফলের বিষয়ে ক্যাম্পেইন টু কিলার রোবটদের প্রচারণার সমন্বয়ক মেরি ভারহেম মন্তব্য করেছিলেন।

প্রকৃতপক্ষে পরিস্থিতি সশস্ত্র একচেটিয়া টাইকুনদের ষড়যন্ত্রের মতো বলে মনে হচ্ছে যে, আমেরিকা যুক্তরাষ্ট্র এবং রাশিয়া সাধারণত গুরুত্বপূর্ণ ইস্যুতে কমপক্ষে কিছুটা আপস করতে পারে না cannot সিরিয়ানটিকে নিন: ওয়াশিংটন এবং মস্কো এই বসন্তে সিরিয়ায় রাসায়নিক অস্ত্র ব্যবহারের পর পরস্পরের প্রস্তাবকে অবরুদ্ধ করেছিল। সামরিক উদ্দেশ্যে অ্যাসফাইসাইটিং গ্যাস এবং অন্যান্য বিষাক্ত পদার্থগুলি আগে, অমানবিক অস্ত্র কনভেনশন দ্বারা নিষিদ্ধ করা হয়েছিল।

ঘাতক রোবটদের ভাগ্য নিয়ে পরবর্তী বৈঠকটি নভেম্বরে জেনেভাতে অনুষ্ঠিত হবে।

কেন তারা স্বায়ত্তশাসিত অস্ত্র নিষিদ্ধ করতে চায়?

রোবট যুদ্ধবিগ্রহের নিষেধাজ্ঞার প্রবক্তারা জোর দিয়েছিলেন যে যুদ্ধক্ষেত্রটি কৃত্রিম বুদ্ধিমত্তার জায়গা নয়। তাদের মতে, এই জাতীয় প্রযুক্তিগুলি একটি বিশাল হুমকি হয়ে দাঁড়িয়েছে। কমপক্ষে, আজ এটি স্পষ্ট নয় যে মেশিনটি যোদ্ধাদের (যারা সরাসরি শত্রুতে জড়িত তারা) নন-যোদ্ধাদের (সেনাবাহিনীর পরিষেবা কর্মীরা যারা কেবল আত্মরক্ষার জন্য অস্ত্র ব্যবহার করতে পারে) এবং সাধারণভাবে সাধারণের মধ্যে পার্থক্য করবে। এই সম্ভাবনা রয়েছে যে এই কাজটি আহত এবং যারা আত্মসমর্পণ করবে তাদের হত্যা করবে, যা যুদ্ধের বর্তমান বিধি দ্বারা নিষিদ্ধ।

সমস্ত পক্ষকে বিরোধে বাধা দেওয়া এমনকি এমন অস্ত্রগুলির মালিকদের কাজ থেকে বাধা দেওয়া কী? কৃত্রিম বুদ্ধিমত্তা উপাদান ইতিমধ্যে সফলভাবে সামরিক সরঞ্জাম, ক্ষেপণাস্ত্র ব্যবহার করা হয়; রোবটগুলি পুনঃজাগরণের জন্য আকৃষ্ট হয় তবে চূড়ান্ত শব্দটি এখনও মানুষের সাথেই স্থির থাকে। স্বায়ত্তশাসিত অস্ত্র কমান্ডারদের আদেশ মানবে না - এজন্য তারা স্বায়ত্তশাসিত। এ কারণেই বিভিন্ন দেশের সামরিক জেনারেলরা কর্মীদের মধ্যে মেশিনে প্রবেশের বিষয়ে সংশয় প্রকাশ করছেন।

এবং আরও একটি উন্মুক্ত প্রশ্ন হ'ল আন্তর্জাতিক সন্ত্রাসবাদ। স্বায়ত্তশাসিত অস্ত্র প্রযুক্তি ভুল হাতে পড়তে পারে এবং শেষ পর্যন্ত এটি হ্যাকও হতে পারে। এক বছর আগে, রাশিয়ার রাষ্ট্রপতি ভ্লাদিমির পুতিন বলেছিলেন যে বিশ্বের শাসক হবেন তিনিই কৃত্রিম বুদ্ধিমত্তার বিকাশে নেতৃত্ব হয়ে উঠবেন।স্বায়ত্তশাসিত অস্ত্রের ক্ষেত্রে, যিনি এই জাতীয় প্রযুক্তিতে অ্যাক্সেস অর্জন করবেন তিনি বিশ্বের শাসক হয়ে উঠবেন। এবং এর জন্য, বাস্তবে, আপনার কেবলমাত্র একটি কম্পিউটার এবং একটি ডজার দরকার যা সুরক্ষা সিস্টেমগুলির মধ্য দিয়ে যাবে। পেন্টাগন, যাইহোক, একাধিকবার হ্যাক হয়েছে। ফলস্বরূপ, কেউ গ্যারান্টি দিতে পারে না যে স্বায়ত্তশাসিত অস্ত্রগুলি অলঙ্ঘনীয় থাকবে।

স্বায়ত্তশাসিত অস্ত্র ব্যবস্থার কার্যকারিতার ফলে যদি কোনও যুদ্ধাপরাধ সংঘটিত হয় তবে আইনানুগভাবে দায়বদ্ধ কে হবে তাও অস্পষ্ট। “ইঞ্জিনিয়ার, প্রোগ্রামার, নির্মাতা বা কমান্ডার কে অস্ত্র ব্যবহার করেছেন? আন্তর্জাতিক মানবাধিকার আইন অনুসারে যদি দায়িত্বটিকে সংজ্ঞায়িত করা না যায় তবে এই জাতীয় ব্যবস্থা স্থাপনাকে আইনী বা নৈতিকভাবে ন্যায়সঙ্গত হিসাবে স্বীকৃতি দেওয়া যেতে পারে?”রেড ক্রসের আন্তর্জাতিক কমিটি নোট নোট করে।

মজার বিষয় হচ্ছে, বিজ্ঞানীরাও যুদ্ধের রোবোট নিষিদ্ধ করার পক্ষে ছিলেন। এই বছরের জুলাইয়ে, দুই হাজারেরও বেশি বিজ্ঞানী, বিশেষত টেসলা এবং স্পেসএক্সের নির্মাতা এলন মাস্ক এবং ডিপমাইন্ডের সহ-প্রতিষ্ঠাতা, একটি নথিতে স্বাক্ষর করেছেন যে তারা মারাত্মক স্বায়ত্তশাসিত অস্ত্র বিকশিত করবে না। গুগলও তাই করেছিল। টেক জায়ান্ট পেন্টাগনের ম্যাভেন প্রকল্পে কাজ ছেড়ে দিয়েছে। এবং 2017 সালে, বেশ কয়েকটি বিজ্ঞানী ইতিমধ্যে জাতিসংঘকে ঘাতক রোবট তৈরি নিষিদ্ধ করার আহ্বান জানিয়েছেন।

যাইহোক, যুদ্ধের মধ্যে কৃত্রিম বুদ্ধিমত্তার বিষয়টি ২০১৩ সালের শেষের দিকে জাতিসংঘের এজেন্ডায় হাজির হয়েছিল, তবে এরপরে কার্যত কিছুই পরিবর্তিত হয়নি। কেবলমাত্র এই বছরই, অমানবিক অস্ত্র সম্পর্কিত কনভেনশনের ফর্ম্যাটে বিশেষজ্ঞের সভাগুলি শুরু হয়েছিল। অর্থাত্ কিছু বা কম ব্যবহারিক বিমানে আসতে চার বছরেরও বেশি সময় লেগেছিল।

কেন তারা স্বায়ত্তশাসিত অস্ত্র নিষিদ্ধ করতে চায় না

এটি যতই ত্রিত্বিত লাগুক না কেন, তারা হত্যাকারী রোবটকে নিষিদ্ধ করতে চান না কেন প্রধান কারণ হ'ল অস্ত্রের লড়াই। পুতিন ঠিক বলেছেন: যে প্রথমে স্বায়ত্তশাসিত অস্ত্র পাবে সে বিশ্বকে আধিপত্য করবে। আনুষ্ঠানিকভাবে, এই কারণটি স্বরযুক্ত।

নিষেধাজ্ঞার বিরোধীদের মূল যুক্তি হ'ল সেনাবাহিনী থেকে বেসামরিক কৃত্রিম বুদ্ধিমত্তাকে আলাদা করার অসম্ভবতা। যেমন, আমরা কেবল রান্নাঘরের ছুরিগুলি নিষিদ্ধ করব না কারণ সন্ত্রাসীরা সেগুলি ব্যবহার করতে পারে। প্রকৃতপক্ষে, সেনাবাহিনী থেকে কৃত্রিম বুদ্ধিমত্তার বেসামরিক বিকাশকে পৃথক করা কার্যত অসম্ভব। তবে এখন আমরা এই অস্ত্রের নিষিদ্ধকরণের কথা বলছি, যা স্বতন্ত্রভাবে লক্ষ্যগুলি নির্ধারণ এবং আক্রমণ করতে সক্ষম হবে। এটি মেভেন প্রকল্প হতে পারে, যেটি মার্কিন প্রতিরক্ষা দফতর বুজ অ্যালেন হ্যামিল্টনের (গুগল চুক্তি প্রত্যাখ্যান করেছে) এর সাথে মিলে কাজ করছে।

ম্যাভেন ডেভেলপাররা বিশেষত উপগ্রহ এবং - সম্ভবত - আক্রমণটির লক্ষ্যগুলি সনাক্ত করতে ইমেজ বিশ্লেষণ করতে ড্রোন শিখাতে চান। পেন্টাগন এপ্রিল 2017 এ প্রকল্পে কাজ শুরু করে এবং বছরের শেষের মধ্যে প্রথম কার্যকরী অ্যালগরিদম পাওয়ার আশা করেছিল। তবে গুগল কর্মীদের সীমাবদ্ধতার মাধ্যমে, উন্নয়নটি বিলম্বিত হয়েছিল। গিজমোডোর মতে এই বছরের জুন পর্যন্ত, সিস্টেমটি প্রাথমিক জিনিস - গাড়ি, লোকের মধ্যে পার্থক্য করতে পারে তবে এটি কঠিন পরিস্থিতিতে সম্পূর্ণ তুচ্ছ বলে প্রমাণিত হয়েছিল। তবে তবুও জাতিসংঘ পর্যায়ে স্বায়ত্তশাসিত অস্ত্রের নিষেধাজ্ঞা গৃহীত হলে, এই প্রকল্পটি বাতিল করতে হবে, যখন পেন্টাগন দাবি করেছে যে তাদের উন্নয়ন জীবন বাঁচাতে পারে, কারণ এটি মানুষের সাথে তুলনা করার সময় আরও নির্ভুল ও নির্ভরযোগ্যভাবে কাজ করার প্রোগ্রাম করা যেতে পারে।

"আপনার বুঝতে হবে যে আমরা প্রযুক্তির বিষয়ে কথা বলছি, এতে যে নমুনাগুলি কার্যকর হবে তা নেই। এই ধরনের সিস্টেমগুলির ধারণাটি এখনও খুব অতিমাত্রায় রয়েছে," রাশিয়ার পররাষ্ট্র মন্ত্রণালয়ে জেনেভাতে সভার প্রাক্কালে উল্লেখ করা হয়েছে। - আমাদের মতে আন্তর্জাতিক আইন, বিশেষত মানবিক ক্ষেত্র স্বায়ত্তশাসিত অস্ত্রের ক্ষেত্রে প্রয়োগ করা যেতে পারে। তাদের অস্তিত্ব নেই এমন সিস্টেমে আধুনিকীকরণ বা অভিযোজন প্রয়োজন হয় না।

ভাল, এবং আরও একটি বাস্তব, কিন্তু কণ্ঠস্বর নয়, কারণ অর্থ money আজ, সামরিক কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির বাজারটি ছয় বিলিয়ন ডলারেরও বেশি অনুমান করা হয়। আমেরিকান সংস্থা মার্কেটস্যান্ডমার্কেটসের বিশ্লেষকরা বলছেন, ২০২৫ সালের মধ্যে এই সংখ্যা তিনগুণ বেড়ে প্রায় ১৯ বিলিয়ন হয়ে যাবে।বৃহত্তম অস্ত্র রফতানিকারকদের জন্য, হত্যাকারী রোবটগুলির বিকাশের উপর যে কোনও বিধিনিষেধ আটকাতে এটি একটি ভাল অনুপ্রেরণা।

অগ্রগতি থামানো যায় না

স্বায়ত্তশাসিত অস্ত্রের উপর নিষেধাজ্ঞার প্রবক্তারা লক্ষ করুন যে প্রযুক্তি খুব দ্রুত বিকাশ করছে এবং কৃত্রিম বুদ্ধিমত্তার অবশেষে অস্ত্র হয়ে উঠবে - সময়ের বিষয় matter তাদের কথায় যুক্তি রয়েছে। কৃত্রিম বুদ্ধিমত্তা চতুর্থ বৈজ্ঞানিক এবং প্রযুক্তিগত বিপ্লবের একটি অবিচ্ছেদ্য অঙ্গ, যা এখন অব্যাহত রয়েছে। এটি মনে রাখা উচিত যে প্রযুক্তিগত অগ্রগতি একরকম বা সামরিক অভিযানের সাথে জড়িত। তৃতীয় বৈজ্ঞানিক ও প্রযুক্তিগত বিপ্লবটি XX শতাব্দীর পঞ্চাশের দশকের মাঝামাঝি পর্যন্ত স্থায়ী হয়েছিল, অর্থাৎ এর চূড়া দ্বিতীয় বিশ্বযুদ্ধের সময়কালে পড়েছিল।

1949 সালে, জেনেভা যুদ্ধের সময় বেসামরিক ব্যক্তিদের সুরক্ষা কনভেনশন গ্রহণ করে। যুদ্ধোত্তর যুগে, তারা ১৯০ of সালের আইভি হেগ কনভেনশনকেও পরিপূরক করেছিল, যা যুদ্ধ পরিচালনার নিয়ম নির্ধারণ করেছিল। অর্থাৎ দ্বিতীয় বিশ্বযুদ্ধের ভয়াবহতা এই প্রক্রিয়াটির অনুঘটক হয়ে উঠেছে। সুতরাং, মানবাধিকার রক্ষকরা স্বায়ত্তশাসিত অস্ত্র থেকে মানবতাকে রক্ষা করতে তৃতীয় বিশ্বযুদ্ধের অপেক্ষায় থাকতে চান না। সে কারণেই হত্যাকারী রোবটের ভাগ্য নির্ধারণ করা এখনই জরুরি, তারা জোর দিয়েছিলেন।

হিউম্যান রাইটস ওয়াচ বিশেষজ্ঞদের মতে, যুদ্ধের রোবটগুলির ব্যবহার মার্টেনস ঘোষণার বিরোধী - এটি আইন ও শুল্কের 1899 সালের হেগ কনভেনশনের উপস্থাপক। অন্য কথায়, হত্যাকারী রোবটগুলি মানবতার আইন এবং জনসচেতনতার প্রয়োজনীয়তা লঙ্ঘন করে (আইভি হেগ কনভেনশনে এই অবস্থানটি নিশ্চিত করা হয়েছিল)।

হিউম্যান রাইটস ওয়াচের অস্ত্র বিভাগের সিনিয়র গবেষক বনি দোহার্টি বলেছিলেন, "বিশ্বজুড়ে ছড়িয়ে যাওয়ার আগে এ জাতীয় অস্ত্র ব্যবস্থা প্রতিরোধমূলক নিষেধাজ্ঞার জন্য আমাদের একসাথে কাজ করতে হবে।"

ঠিক আছে, এটি হত্যাকারী রোবটগুলিকে নিষিদ্ধ করার কাজ হয়নি। অনুমানযোগ্যভাবে, নভেম্বরের সভাগুলিও ফলহীন হবে। সত্য, প্রায় সমস্ত দেশই একমত - প্রযুক্তিটিকে মাধ্যাকর্ষণ দ্বারা প্রবাহিত হতে দেওয়া যায় না এবং যুদ্ধের রোবোটগুলিকে এই ধরনের স্টপ-ক্রেনের প্রয়োজন হয়। তবে এটি এখনও স্পষ্ট নয় যে যখন প্রয়োজন দেখা দেয় তখন মানবতার এটি টানতে সময় আসবে কিনা।

প্রস্তাবিত: