arrow-right-square Created with Sketch Beta.
کد خبر: ۵۱۰۸۹۷
تاریخ انتشار: ۱۴ : ۱۷ - ۱۴ آبان ۱۳۹۸

آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟

وزارت دفاع ایالات متحده به تازگی از پیش نویس دستورالعمل های خود در مورد استفاده اخلاقی از هوش مصنوعی در جنگ پرده برداری کرده است.بخشی از این قوانین به موضوع ربات های قاتل پرداخته است اما آیا واقعا این نوع قوانین می توانند پیشگیرانه باشند؟
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

وزارت دفاع ایالات متحده به تازگی از پیش نویس دستورالعمل های خود در مورد استفاده اخلاقی از هوش مصنوعی در جنگ پرده برداری کرده است.بخشی از این قوانین به موضوع ربات های قاتل پرداخته است اما آیا واقعا این نوع قوانین می توانند پیشگیرانه باشند؟

به گزارش سرویس آی تی و فناوری انتخاب، ربات های قاتل ، خواه با هدف ترساندن یا تهدیدی برای توازن بین المللی قدرت باشند ، خواه با هدف مانورهای نظامی نیازمند برخی برنامه ریزی های قانونمند هستند.

پیش نویس دستورالعمل های استفاده از ربات های قاتل اواخر هفته گذشته توسط هیئت نوآوری دفاعی (DIB) منتشر شد. وزارت دفاع  در سال 2018 مأموریتی را مشخص کرده بود تا بر اساس آن این هیئت مجموعه ای از قوانین اخلاقی را برای استفاده از هوش مصنوعی در جنگ تهیه کند.

در بخش مقدمه این قوانین آمده است: "حفظ مزیت رقابتی در هوش مصنوعی برای امنیت ملی ما ضروری است. پنج اصل اخلاق هوش مصنوعی را برای تصویب توسط وزارت دفاع تایید می کند ، که عبارتند از: مسئولیت ، عدالت پذیری، قابلیت ردیابی ، قابلیت اعتماد و قابلیت کنترل."

آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟

این سند با داشتن پنج ستون از اصول هوش مصنوعی ، طیف گسترده ای از موضوعات را در بر می گیرد. به عنوان مثال:

_تأكید می شود كه هنگام استقرار سیستم های خودمختار ، انسان باید سطح قضاوت "مناسب" را انجام دهد؛  یعنی مسئولیت

_ عدالت پذیری بدان معنی است که این سیستم ها باید عاری از تعصب ناخواسته باشند

_ با ردیابی به این معنی است که ابزارهای هوش مصنوعی باید کاملاً شفاف باشند و متخصصان برای درک دقیق نحوه عملکرد آنها باید به داده های لازم دسترسی داشته باشند

_سیستم های خودمختار باید به طور مداوم مورد آزمایش قرار گیرند تا از قابلیت اطمینان آنها اطمینان حاصل شود

_ قابلیت کنترل به این معناست که باید بدانند چگونه می توان این سیستمها را متوقف کرد

این سند قوانین جدید 65 صفحه می رسد  که به طور غیرمعمول طولانی است. برای تنظیم توسعه سلاح های خودمختار ، وزارت دفاع از سال 2012 با تکیه بر یک "بخشنامه" 15 صفحه ای ، در پی کاهش مخاطرات است.وزارت دفاع آمریکا در سال 2018 نتوانست به توافق با گوگل برای توسعه هوش مصنوعی پهپادها دست یابد ، زیرا كارمندان این شركت به استفاده از فناوری برای قتل مردم بیگناه معترض شدند.

بنابراین به نظر می رسد عدم اعتماد به شیوه ای که ارتش ممکن است از فناوری غیرنظامی استفاده کند ، یکی از دلایلی است که وزارت دفاع آمریکا موازین اخلاقی جدیدی را به کار می گیرد.به راحتی می توان فهمید که چرا این وضعیت در شرایط فعلی ژئوپلیتیک مشکل ساز است. در حالی که چین اعلام کرد هوش مصنوعی را در اولویت ملی قرار داده است ، روسیه در حال تحقیق در زمینه تکنیک Era برای استقرار هوش مصنوعی در حوزه نظامی است. بنابراین ، آیا دستورالعمل های جدید وزارت دفاع به اندازه کافی دقیق است تا اعتماد غیرنظامیان به استفاده نظامی از هوش مصنوعی را تقویت کند؟

آماندا شارکی ، مدرس علوم کامپیوتر در دانشگاه شفیلد انگلستان و عضو کمپین برای متوقف کردن روبات های قاتل گفت: "این ممکن است کمی فشار وارد کند اما نمی توان مطمئن بود که کاملا موثر است. با این حال گام مذکور یک گام مفید و پایدار است. "

نظرات بینندگان