arrow-right-square Created with Sketch Beta.
کد خبر: ۷۷۰۱۰۱
تاریخ انتشار: ۰۵ : ۱۶ - ۲۲ اسفند ۱۴۰۲
فارن افرز:

عصر خطرناک جنگ افزار‌های هوش مصنوعی در پیش است / چگونه باید خود را آماده این پدیده کنیم؟

پل اسچار در یادداشتی در نشریه فارن افیرز نوشت: جنگ‌های آینده شاهد حضور پهپاد‌هایی خواهد بود که به صورت خودمختار سامانه‌های دفاعیی هوایی یا لانچر‌های موشک متحرک را هدف قرار می‌دهند. ربات‌های زمینی از همتایان هوایی و دریایی خود عقب افتاده اند، اما جنگ‌های آینده ممکن است شاهد سلاح‌های خودمختاری باشند که توسط ربات‌ها به کار گرفته می‌شوند یا در نقاط ثابتی مستقر می‌گردند. این تغییرات احتمالا در اینجا متوقف نخواهند شد.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

پل اسچار در نشریه فارن افیرز نوشت: سال گذشته شرکت ساکر اوکراین، سازنده پهپاد‌های نظامی ادعا کرد که یک سلاح کاملا خودمختار به نام ساکر اسکوت تولید کرده که از هوش مصنوعی برای تصمیم گیری در مورد اینکه در میدان نبرد چه کسی را هدف قرار دهد استفاده می‌کند. این پهپاد به ادعای مقامات اوکراینی حملات خودمختاری را در ابعاد کوچک انجام داده است. هرچند این خبر به صورت مستقل تایید نشده، اما فن آوری لازم برای تولید چنین سلاح‌هایی قطعا وجود دارد. این یک گام فنی کوچک، اما در عین حال یک گام انسانی، حقوقی و اخلاقی مهم به سمت تولید سلاح‌های تمام خودمختار است که توانایی جستجو و انتخاب اهداف بدون دخالت انسان را دارا هستند.

به گزارش سرویس بین‌الملل «انتخاب»، در ادامه این مطلب آمده است: اعزام پهپاد ساکر به میدان نبرد نشان می‌دهد که پنجره نظارت قانونی بر سلاح‌های خودمختار به سرعت در حال بسته شدن است. کشور‌های جهان برای یک دهه در حال بحث در مورد نحوه مواجهه با سلاح‌های خودمختار بوده اند، اما نتوانسته اند به اتفاق نظری در مورد مقررات محدود کننده ناظر بر آسیب‌های ناشی از این سلاح‌ها دست یابند. با این حال، نیاز فوری به انعقاد یک توافق بین المللی اکنون بیش از هر زمان دیگری احساس می‌شود. توسعه نامحدود سلاح‌های خودمختار می‌تواند منجر به جنگ‌هایی شود که فراتر از حوزه کنترل انسان هستند و رزمندگان و غیرنظامیان در آن بی دفاع‌تر از گذشته اند. حتی اگر ممنوعیت کلی استفاده از این تسلیحات واقع بینانه نباشد، مقررات عملی زیادی وجود دارند که دولت‌ها می‌توانند برای کاستن از بدترین خطرات استفاده از این سلاح‌ها به تصویب برسانند. با عدم تحمیل هرگونه محدودیتی، بشریت به سمت آینده‌ای با حضور جنگ افزار‌های خطرناک و تحت کنترل ماشین حرکت خواهد کرد. 

ارتش‌های جهان در استفاده از فن آوری هوش مصنوعی توسعه یافته در بخش تجاری به کندی عمل کرده اند که بخشی از آن به فرآیند‌های دست و پاگیر تدارکات بر می‌گردد. جنگ اوکراین به ویژه با فن آوری‌های تجاری‌ای نظیر پهپاد‌های کوچک، موجب سرعت گرفتن نوآوری در هر دو طرف شد. هم مسکو و هم کیف به شکل گسترده‌ای از پهپاد‌ها برای شناسایی و حمله به نیرو‌های زمینی استفاده کرده اند. این حملات پهپادی به نوبه خود منجر به توسعه اقدامات متقابل جدید از جمله سیستم‌های جنگ الکترونیکی شده که موجب بروز اختلال در ارتباطات مخابراتی پهپاد‌ها یا شناسایی دقیق محل هدایتگر‌های این پرنده‌ها بر روی زمین می‌شود که بعدا می‌توانند هدف قرار بگیرند. بدون اوپراتور‌های انسانی، پهپاد‌های کنترل از راه دور ابزار‌هایی بدون استفاده هستند. به همین دلیل است که پهپاد‌های خودمختار ارزش بسیار بالایی دارند. آن‌ها دیگر متکی به ارتباطات مخابراتی آسیب پذیر نیستند. برای مقابله با آن‌ها خود پهپادها، و نه اوپراتورها، باید کشف و نابود شوند.

شکل مشخصی که سلاح‌های خودمختار به خود می‌گیرند بستگی به نیاز‌های یک درگیری خواهد داشت. در اوکراین، مسکو و کیف از پهپاد‌های هوایی کوچک برای هدف قرار دادن پرسنل و وسائل نقلیه استفاده کردند. پهپاد‌های بزرگتر و با ارتفاع پروازی متوسط برای دسترسی عمیقتر به خطوط دشمن برای هدف قرار دادن رادار‌ها و تاسیسات طرف مقابل مورد هدف قرار گرفته اند. اوکراین حتی از قایق‌های بدون سرنشین برای هدف قرار دادن ناوگان روسیه در دریای سیاه استفاده کرده است. همه این پهپادها، که در حال حاضر از دور کنترل می‌شوند، قابل ارتقا به پهپاد‌های خودمختار هستند و این امکان ادامه عملیات در صورت مختل شدن ارتباطات مخابراتی را فراهم می‌سازد.

سایر درگیری‌ها می‌تواند منجر به توسعه اشکال متفاوتی از سلاح‌های خودمختار شود. چندین کشور شامل چین، فرانسه، هند، روسیه، بریتانیا و آمریکا در حال کار بر روی پهپاد‌های جنگی رادارگریز هستند. جنگ‌های آینده شاهد حضور پهپاد‌هایی خواهد بود که به صورت خودمختار سامانه‌های دفاعیی هوایی یا لانچر‌های موشک متحرک را هدف قرار می‌دهند. ربات‌های زمینی از همتایان هوایی و دریایی خود عقب افتاده اند، اما جنگ‌های آینده ممکن است شاهد سلاح‌های خودمختاری باشند که توسط ربات‌ها به کار گرفته می‌شوند یا در نقاط ثابتی مستقر می‌گردند. این تغییرات احتمالا در اینجا متوقف نخواهند شد. گروه گسترده‌ای از پهپاد‌ها می‌تواند به صورت خودمختار رفتارهایشان را هماهنگ کنند و به تغییرات در صحنه نبرد با سرعتی فراتر از توانایی‌های انسانی واکنش نشان دهند. واکنش‌های خودمختار با سرعت ماشین می‌تواند موجب افزایش سرعت عملیات‌ها شود و روند جنگ‌ها را شتاب ببخشد. این به نوبه خود فشار حتی بیشتری برای حذف انسان‌ها از چرخه‌های تصمیم گیری وارد خواهد کرد. تبعات این تغییر و گذار به یک دوره جدید جنگ افزار‌های تحت کنترل ماشین بسیار عمیق خواهد بود.

دانشمندان برجسته حوزه هوش مصنوعی از جمله استوارت راسل، استاد دانشگاه کالیفرنیا و یان لکان، برنده جایزه تورینگ نسبت به خطرات سلاح‌های خودمختار هشدار داده اند. کنسرسویمی متشکل از بیش از ۲۵۰ سازمان غیردولتی از جمله عفو بین الملل، دیدبان حقوق بشر و ابتکار زنان برنده نوبل کمپینی برای متوقف کردن ربات‌های قاتل تشکیل داده و خواهان انعقاد یک معاهده پیشگیرانه و لازم الاجرا برای ممنوعیت استفاده از سلاح‌های خودمختار شده اند. عامل اصلی این هشدار‌ها و کمپین‌ها این نگرانی است که سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را در جنگ افزایش دهند. هرچند سلاح‌های خودمختار می‌تواند به شکل قابل تصوری از طریق هدف قرار دادن دقیق رزمندگان تلفات غیرنظامی را کاهش دهند، اما این سلاح‌ها در دست دولت‌هایی که اهمیت چندانی به تلفات غیرنظامی نمی‌دهند، یا می‌خواهند یک جمعیت غیرنظامی را تنبیه کنند، می‌توانند برای ارتکاب جنایات ویرانگر به کار گرفته شوند. انبوهی از سلاح‌های خودمختار می‌تواند برای هدف قرار دادن و کشتن هزار نفر در زمانی واحد به کار گرفته شوند و بمب‌های هوشمند امروزی را ابزار‌هایی بدوی و ابتدایی جلوه دهند.

یکی از شدیدترین ریسک‌ها از تلفیق هوش مصنوعی و خودمختاری با سلاح هسته‌ای ناشی می‌شود. کنترل انسانی بر تسلیحات هسته‌ای می‌تواند به مثابه یک نقطه شروع آسان برای انعقاد توافق بین الملی در این زمینه عمل نماید، اما مسکو از تمایل خود برای خودمختار کردن عملیات‌های هسته‌ای خود خبر داده است. پهپاد‌های مجهز به سلاح هسته‌ای می‌توانند در دریا و زمین به گشت زنی بپردازند و ریسک بروز تصادمات یا از دست دادن کنترل تسلیحات هسته‌ای را افزایش دهند.

نظرات بینندگان