arrow-right-square Created with Sketch Beta.
کد خبر: ۶۲۹۰۰۸
تاریخ انتشار: ۵۳ : ۱۸ - ۳۰ تير ۱۴۰۰

چرا پنتاگون دائم خود را هک می کند؟

یک تیم حرفه‌ای و جدید در پنتاگون (تیم قرمز)، سعی در پیش بینی و خنثی کردن حملات مبتنی بر هوش مصنوعی با شیوه‌ای جدید دارد. پنتاگون هوش مصنوعی را راهی برای برون رفت از شرایط خطر، پیروزی‌های بیشتر و تسلط بر دشمنان آینده می‌داند. اما ماهیت شکننده هوش مصنوعی به این معنی است که بدون مراقبت‌های لازم، این فناوری می‌تواند راهی جدید برای حمله به دشمنان بدهد.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

یک تیم حرفه‌ای و جدید در پنتاگون (تیم قرمز)، سعی در پیش بینی و خنثی کردن حملات مبتنی بر هوش مصنوعی با شیوه‌ای جدید دارد. پنتاگون هوش مصنوعی را راهی برای برون رفت از شرایط خطر، پیروزی‌های بیشتر و تسلط بر دشمنان آینده می‌داند. اما ماهیت شکننده هوش مصنوعی به این معنی است که بدون مراقبت‌های لازم، این فناوری می‌تواند راهی جدید برای حمله به دشمنان بدهد.

به گزارش سرویس خواندنی‌های انتخاب، مرکز اطلاعات مصنوعی مشترک، ایجاد شده توسط پنتاگون برای کمک به ارتش ایالات متحده در استفاده از هوش مصنوعی، اخیراً واحدی را برای جمع آوری، طراحی و توزیع مدل‌های یادگیری ماشینی منبع باز و صنعتی در  گروه‌های سراسر وزارت دفاع تشکیل داده است. بخشی از این تلاش‌ها به چالشی اساسی در استفاده از هوش مصنوعی برای اهداف نظامی اشاره دارد.

سیستم هوش مصنوعی موسوم به "تیم قرمز"، معروف به گروه آزمون و ارزیابی، مدل‌های از پیش آموزش دیده شده را  برای شناخت نقاط ضعف بررسی می‌کند. تیم امنیت سایبری دیگری کد‌های هوش مصنوعی و داده‌ها را برای آسیب پذیری‌های پنهان بررسی می‌کند.

سیستم یادگیری ماشینی، نوعی تکنیک با پشتوانه هوش مصنوعی مدرن، شیوه‌ای کاملاً متفاوت و اغلب قدرتمندتر، برای نوشتن کد رایانه را نشان می‌دهد. یادگیری ماشینی به جای نوشتن قوانین برای پیروی از ماشین، قوانین خود را با یادگیری از داده‌ها ایجاد می‌کند. اما مشکل این است که، این فرایند یادگیری، همراه با مصنوعات یا خطا‌های موجود در داده‌های آموزشی، می‌تواند باعث شود که مدل‌های هوش مصنوعی به شیوه‌های عجیب یا غیرقابل پیش بینی رفتار کنند.

گرگوری آلن، مدیر استراتژی و سیاست در مرکز اشتراک و توسعه هوش مصنوعی (JAIC)، می‌گوید: "برای برخی از برنامه‌ها، نرم افزار یادگیری ماشینی یک میلیارد بار بهتر از نرم افزار سنتی است. اما نمی‌توان فراموش کرد که سیستم یادگیری ماشینی به روش‌های مختلف از نرم افزار‌های سنتی تبعیت می‌کند. "

برای مثال، یک الگوریتم یادگیری ماشینی آموزش دیده برای شناسایی وسایل نقلیه خاص در تصاویر ماهواره‌ای، ممکن است یاد بگیرد که وسیله نقلیه را با رنگ خاصی از مناظر اطراف مرتبط کند و  یک دشمن می‌تواند با تغییر مناظر اطراف وسایل نقلیه خود، هوش مصنوعی را فریب دهد؛ بنابراین با دسترسی به داده‌های آموزشی سنتی‌تر، ممکن است دشمن بتواند تصاویری مانند یک نماد خاص را که الگوریتم را گیج می‌کند، ایجاد کند.

 

آلن می‌گوید پنتاگون در مورد قابلیت اطمینان و امنیت نرم افزاری که استفاده می‌کند از قوانین دقیق پیروی می‌کند. او می‌گوید که این رویکرد می‌تواند به هوش مصنوعی و یادگیری ماشین گسترش یابد  و خاطرنشان می‌کند که JAIC در تلاش است تا استاندارد‌های دفاعی را در مورد نرم افزار به روز کند تا مسائل مربوط به یادگیری ماشینی را شامل شود.


تام گلدشتاین، دانشیار، علوم کامپیوتر، دانشگاه مریلند می‌گوید: "ما نمی‌دانیم که چگونه سیستم‌هایی کاملاً مقاوم در برابر حملات خصمانه بسازیم. " هوش مصنوعی در حال تغییر و تحول در نحوه فعالیت برخی مشاغل است، زیرا می‌تواند روشی کارآمد و قدرتمند برای خودکارسازی وظایف و فرایند‌ها منجر شود. این روشی جایگزین برای نوشتن یک الگوریتم است که مشخص می‌کند مشتری کدام محصول را خریداری می‌کند، به عنوان مثال، یک شرکت می‌تواند الگوریتم هوش مصنوعی را در هزاران یا میلیون‌ها فروش پیشین بررسی کند و مدل خود را برای پیش بینی اینکه چه چیزی خریداری می‌کند، طراحی کند.

سیستم‌های هوش مصنوعی

ارتش آمریکا و سایر گروه‌های نظامی مزایای مشابهی را تجربه کرده اند  و در حال استفاده از هوش مصنوعی برای بهبود تدارکات، جمع آوری اطلاعات، برنامه ریزی ماموریت و فناوری تسلیحاتی هستند. توانایی روزافزون فناوری چین باعث شده تا در پنتاگون در مورد تصویب هوش مصنوعی فوریتی ایجاد شود. آلن می‌گوید وزارت دفاع "در حال حرکت" به روشی مسئولانه است که ایمنی و قابلیت اطمینان را در اولویت قرار دهد.

محققان در حال توسعه روش‌های خلاقانه‌تر برای هک، براندازی یا شکستن سیستم‌های هوش مصنوعی هستند. در اکتبر سال ۲۰۲۰، محققان در اسرائیل نشان دادند که چگونه تصاویر دقیق با دقت می‌توانند الگوریتم‌های هوش مصنوعی را که به تسلا اجازه می‌دهد راه را تفسیر کند، به اشتباه بیندازند. این نوع "حمله خصمانه" شامل تغییر در ورودی الگوریتم یادگیری ماشینی برای یافتن تغییرات کوچک است که باعث خطا‌های بزرگ می‌شود.

داون سونگ، استاد دانشگاه UC برکلی که آزمایش‌های مشابهی را روی سنسور‌های تسلا و سایر سیستم‌های هوش مصنوعی انجام داده است، می‌گوید حملات به الگوریتم‌های یادگیری ماشینی در زمینه‌هایی مانند تشخیص تقلب در حال حاضر مسئله‌ای مهم است. برخی از شرکت‌ها ابزاری را برای آزمایش سیستم‌های هوش مصنوعی مورد استفاده در امور مالی ارائه می‌دهند. سونگ می‌گوید: "به طور طبیعی مهاجمانی وجود دارند که می‌خواهند از سیستم فرار کنند. من فکر می‌کنم در آینده شمار بیشتری از این نوع مسائل را خواهیم دید. "

یک مثال ساده از حمله یادگیری ماشینی شامل Tay، در مایکروسافت است که به یک ربات گفتگو محور مرتبط است. این ربات که در سال ۲۰۱۶ شروع به کار کرد، از الگوریتمی استفاده کرد که یاد گرفت چگونه با بررسی مکالمات قبلی به سوالات جدید پاسخ دهد. اما در سوی دیگر میدان،   هکر‌ها به سرعت دریافتند که می‌توانند از این فناوری سوءاستفاده کنند تا Tay را وادار به پخش پیام‌های نفرت انگیز کنند.

تام گلدشتاین، دانشیار دانشگاه مریلند که شکننده بودن الگوریتم‌های یادگیری ماشینی را مطالعه می‌کند، می‌گوید که روش‌های زیادی برای حمله به سیستم‌های هوش مصنوعی وجود دارد، از جمله اصلاح داده‌هایی که یک الگوریتم تغذیه می‌کند تا رفتار خاصی داشته باشد. وی می‌گوید مدل‌های یادگیری ماشینی با نرم افزار‌های معمولی متفاوت است، زیرا دستیابی به یک مدل می‌تواند به  دشمن اجازه دهد حمله‌ای مانند ورودی گمراه کننده را طراحی کند که در برابر آن نمی‌توان از خود دفاع کرد.


گلدشتاین می‌گوید: "ما واقعاً نمی‌دانیم چگونه همه آسیب پذیری‌های  را برطرف کنیم. ما نمی‌دانیم که چگونه سیستم‌هایی کاملاً مقاوم در برابر حملات خصمانه بسازیم. "در زمینه نظامی، جایی که یک دشمن از نظر فنی و پیشرفته از نظر منابع کاملاً مشخص است، محافظت در برابر انواع خطوط جدید حمله ممکن است از اهمیت ویژه‌ای برخوردار باشد.

گزارش اخیر مرکز امنیت و فناوری‌های نوظهور دانشگاه جورج تاون هشدار داده است که "مسمومیت با داده" در هوش مصنوعی ممکن است تهدیدی جدی برای امنیت ملی باشد. این روش شامل نفوذ به فرایند مورد استفاده برای آموزش یک مدل هوش مصنوعی است و شاید با حضور یک عامل داوطلب برای برچسب گذاری تصاویر به الگوریتم یا کاشت تصاویر روی وب که یک مدل هوش مصنوعی را تحت اثیر می‌گذارند.


اندرو لون، نویسنده این گزارش، JAIC را به دلیل ایجاد تیم اختصاص داده شده برای بررسی سیستم‌های هوش مصنوعی پیشگیری از آسیب پذیری‌ها تحسین می‌کند. وی هشدار می‌دهد که ایمن سازی خط یادگیری ماشینی برای مدل‌های هوش مصنوعی که از بخش خصوصی می‌آیند دشوارتر خواهد بود، زیرا ممکن است نحوه توسعه آن‌ها مشخص نباشد. همچنین ممکن است شناسایی داده‌هایی که برای مسموم کردن یک مدل هوش مصنوعی طراحی شده اند چالش برانگیز باشد، زیرا ممکن است این تغییرات برای چشم انسان واضح یا قابل مشاهده نباشد.

البته لونت می‌گوید، پنتاگون احتمالاً توانایی‌های تهاجمی خاص خود را برای معکوس کردن مهندسی سیستم‌های هوش مصنوعی، تخریب کردن و براندازی دشمنان دارد. درواقع به نظر می‌رسد، تمرکز بر این است که نتوان هوش مصنوعی نظامی آمریکا را مورد حمله قرار داد. وی می‌گوید: "ما می‌توانیم گزینه‌های تهاجمی داشته باشیم. اما بگذارید فقط مطمئن شویم که علیه ما نمی‌توان این کار را انجام داد. " آلن، مسئول JAIC، از اظهارنظر در مورد اینکه آیا ایالات متحده توانایی‌های تهاجمی را توسعه می‌دهد، خودداری کرد.

پنتاگون

بسیاری از کشورها، استراتژی‌های ملی هوش مصنوعی را برای اطمینان از استفاده هرچه بیشتر اقتصاد از یک فناوری جدید قدرتمند، توسعه داده اند. هم اکنون، شرکت‌های بزرگ فناوری در ایالات متحده و چین به ویژه در تلاش برای استفاده از جدیدترین تکنیک‌های هوش مصنوعی  در تجارت و صادرات  هستند.

آلن می‌گوید داشتن یک امتیاز فنی در هوش مصنوعی یک مزیت استراتژیک برای دولت‌های ملی خواهد بود. الگوریتم‌هایی که زنجیره تأمین نظامی را برای ادامه کار یا تصمیمات مهم مأموریت حفظ می‌کنند، باید محافظت شوند. او می‌گوید: "هنگامی که شما در مقیاس‌هایی بزرگ کار می‌کنید که دلهره آور محسوب می‌شوند و حکم شرایط مرگ و زندگی را دارد و در سیستم‌های کاملاً پیچیده فناوری کار می‌کنید، به نوعی برتری فنی عمیق نیاز دارید تا اطمینان حاصل کنید که سیستم‌های شما همانطور که در نظر گرفته شده عمل می‌کنند. "

نظرات بینندگان