arrow-right-square Created with Sketch Beta.
کد خبر: ۴۱۱۵۰۷
تاریخ انتشار: ۴۰ : ۱۹ - ۱۰ خرداد ۱۳۹۷
نیویورک تایمز:

چگونه قرارداد پنتاگون تبدیل به یک بحران هویت برای گوگل شد؟ / نگرانی های متعدد در خصوص سوء استفاده از هوش مصنوعی

فی فی لی یکی از درخشان ترین ستارگان جهان در زمینه رشد هوش مصنوعی است که به نوعی مدیریت  2 مجموعه مهم و سرشناس این حوزه را نیز بر عهده دارد. وی همزمان رئیس بخش هوش مصنوعی دانشگاه استنفورد و مدیر ارشد بخش هوش مصنوعی "گوگل کلود " است. بخشی که گوگل به شدت امیدوار است به زودی بازخوردهایی خیره کننده جذب کند.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

فی فی لی یکی از درخشان ترین ستارگان جهان در زمینه رشد هوش مصنوعی است که به نوعی مدیریت  2 مجموعه مهم و سرشناس این حوزه را نیز بر عهده دارد. وی همزمان رئیس بخش هوش مصنوعی دانشگاه استنفورد و مدیر ارشد بخش هوش مصنوعی "گوگل کلود " است. بخشی که گوگل به شدت امیدوار است به زودی بازخوردهایی خیره کننده جذب کند.

به گزارش سرویس آی تی انتخاب به نقل از نیویورک تایمز، با وجود همه این موفقیت ها ، از  سپتامبر گذشته،موانعی سر راه این چهره سرشناس قرار گرفت. یعنی زمانی که مقامات شرکت گوگل از عقد قراردادی با پنتاگون در حوزه هوش مصنوعی سخن گفتند و دکتر لی به شدت توصیه کرد که این  قراردادها مورد بازبینی قرار گیرند.

او در نامه ای به همکارانش که نیویورک تایمز به متن آن دسترسی پیدا کرده از نگرانی های خود در خصوص پیوستن گوگل به فعالیت های نظامی و سرنوشت و آینده هوش مصنوعی در جهان پرداخته است. 

نگرانی اصلی دکتر لی در مورد پیامدهای قراردادهای نظامی برای گوگل بود. ارتباط این شرکت با وزارت دفاع ایالات متحده از پروژه ای موسوم به "Maven"  پررنگ تر شد. پروژه ای که از هوش مصنوعی برای تفسیر تصاویر ویدئویی استفاده می کند و می تواند برای بهبود هدف گیری هواپیماهای بدون سرنشین استفاده شود. براساس ایمیل ها و مدارک مستندی که به دست خبرنگاران نیویورک تایمز رسیده، از زمان آغاز این پروزه نوعی بحران در پیکر گوگل نیز شروع شد.

یکی از مهم ترین پیامدهای آغاز این پروژه جلسات پر تنش بین مقامات ارشد و کارکنان گوگل بود، در این میان برخی از کارکنان استعفا دادند و برخی دیگر نیز با مقامات ارشد گوگل از جمله دکتر لی اختلافاتی عمیق پیدا کردند . گرچه مقام های ارشد گوگل تمام تلاش خود را به کار بستند تا فاصله بین اعتراض های اخلاقی افراد و قرارداهای دفاعی و نظامی را به حداقل برسانند.

نقطه دوم مشکلات گوگل از جایی شروع شد که مدل تبلیغاتی گوگل  رشد چشمگیری را ثبت کرد و برخی از انتقادها را به وجود آورد که معتقد بودند حریم شخصی کاربران در حال نقض شدن است و گوگل از برخی وبسایت های مشکوک پشتیبانی می کند که فعالیت هایی مثل درج اخبار جعلی را انجام می دهند.در همین دوران بود که گوگل در برابر یک دوراهی عظیم قرار گرفت : ادامه همکاری های دفاعی و نظامی با ارتش ایالات متحده  در حوزه هوش مصنوعی و یا انصراف از این همکاری و از دست دادن یک پروژه تجاری پرسود و بالقوه . 

بحث داخلی در مورد پروژه Maven که بین حامیان و مخالفانش مطرح می شد، بیش از هر چیز در مورد ماهیت این طرح و مقاصدش بود . بیش از 4 هزار کارمند گوگل در جریان این بحث ها، طوماری را امضا کردند که بر اساس آن از گوگل درخواست می کردند تعهد دهد از تکنولوژی های خود برای توسعه فناوری های جنگی استفاده نمی کند. 

مدیران بخش "دیپ مایند" هوش مصنوعی گوگل که دفتر مرکزی آن در لندن قرار دارد نیز به شکل  مشخص اعلام کردند که  آنها به طور رسمی و قطعی  با کارهای نظامی  مخالفت دارند. ظاهرا نیز قرارداد خرید بین دو شرکت دیپ مایند و گوگل بر این اساس تدوین شده که فعالیت های آنان  هرگز برای اهداف نظامی یا نظارتی مورد استفاده قرار نخواهد گرفت.

 تا کنون حدود 12  کارمند گوگل در مورد این جریانات  استعفا داده اند.با همه این ها بر اساس ایمیل ها و اسناد داخلی که توسط کارمندان گوگل به نیویورک تایمز ارسال شده، از مدتی پس از جنجال های مذکور، تعدادی استیکر در دفاتر کار کارمندان ظاهر شد که حاوی این پیغام بود؛ "کار درست را انجام بده". این ماجرا نشان می داد که  اگرچه  برخی از مدیران گوگل انتظار مخالفت و تبلیغ منفی را دارند، اما سایر کارکنان، با توجه به اینکه رقبایی مانند مایکروسافت و آمازون دارند نسبت به قضیه پنتاگون حساسیت کمتری دارند. به خصوص این که شرکت های مذکور مدت هاست مشتاقانه به دنبال همکاری سودآور با  پنتاگون هستند. 

درواقع اغراق نیست اگر بگوییم؛ بسیاری از شرکت های فناورری به دنبال کسب و کار های نظامی  هستند، البته مشروط بر آن که به واسطه این کسب و کارها نیروی کار خود را از دست ندهند.در سال 2004 لری پیچ یکی از موسسان گوگل در گفتگو با ای بی سی نیوزاشاره کرد که اگرچه به دنبال "بدنامی" نیست، اما تلاش می کند برترین روش ها را برای جذب بهترین ها برای شرکتش اتخاذ کند. 

درگیری داخلی گوگل باعث شد  گمانه زنی ها در خصوص احتمال استفاده از Maven برای استفاده درهواپیماهای بدون سرنشین  و کشنده افزایش پیدا کند.انتظار می رود که هوش مصنوعی،به عنوان یکی از نقاط قوت گوگل، نقش اصلی را در جنگ های آتی بازی کند.

جیمز ماتیس، وزیر دفاع ایالات متحده،  در ماه اوت، کمی بعد پس از بازدید آمازون، دیداری با مدیران گوگل داشت و خواستار همکاری نزدیک با شرکت های فناوری  شد.او در این خصوص گفت: "من پیشرفت های چشمگیری را  در صنایع فناوری محور  خصوصی مشاهده می کنم."

اما در این میان نظرات دکتر لی چیست؟ پاسخ این سوال را می توان در قالب ایمیل هایی که وی به دکتر اسکات فروهمن ارسال کرده دید. وی مدیر بخش اطلاعات گوگل است.فراموش نکنیم که  دکتر لی  در چین متولد شده و سپس به نیوجرسی مهاجرت کرده است. جالب تر این که او تا 16 سالگی قادر نبود به انگلیسی صحبت کند اما پس از آن به سرعت به مدارج بالای دنیای فناوری صعود کرده است. 

دکتر لی در یک  ایمیل به همکار خود می گوید که تصمیم گیرنده نهایی در خصوص ماجرای پنتاگون رئیس او یعنی  دیان گرین، مدیر اجرایی بخش "گوگل کلود"است. لی اشاره کرده بود که همکاری در پروژه مذکور می تواند یک موفقیت بلندمدت را برای گوگل فراهم کند.وی طراحی این پروژه را  "فوق العاده دقیق" توصیف کرده بود. او صراحتا گفته بود که : "من نمی دانم که اگر رسانه ها شروع به برداشتن نکاتی از این ماجرا کنند و یا اعلام کنند که  گوگل به طور مخفیانه سلاح های هوش مصنوعی یا مبتنی بر هوش مصنوعی تولید می کند، باید چه راهکاری ارائه داد. "

زمانی که بعدها از دکتر لی، در مورد این  ایمیل وی پرسیده شد، پاسخ داد که "من به هوش مصنوعی مبتنی بر منافع انسانی اعتقاد دارم. سیستمی که به نفع مردم  و در مسیرهای مثبت و خیرخواهانه عمل کند.این عمیقا علیه اصول من است تا کارهایی را بر علیه انسان ها انجام دهم."

همانطور که پیش از این نیز اشاره شد گوگل تمایلی به افشای جزئیات برنامه های  Maven نداشت. اما ماجرای این پروژه زمانی رسانه ای شد و مورد توجه قرار گرفت که کارکنان مخالف آن شروع به اعتراض در پلتفرمهای ارتباطی داخلی گوگل کردند. 

اخیرا این شرکت به کارمندان وعده داده است که مجموعه ای از اصول را برای هدایت انتخاب های خود به مسیر اخلاقی تدوین می کند. ساندار پیچای، مدیر اجرایی شرکت گوگل در آخرین جلسه داخلی شرکت خود گفت که  قصد دارد دستورالعمل هایی را ارائه دهد تا کارکنان به انتظارات خود دست پیدا کنند. 

با  وجود  این ماجراها نباید فراموش کنیم که بحث های قطبی در مورد گوگل و ارتش ممکن است برخی از تفاوت های ظریف بین نقاط منفی و مثبت این همکاری را از بین ببرد.برای مثال این همکاری می تواند کمک کند تا هواپیماهای بدون سرنشین  تلفات غیرنظامیان را کاهش دهند. درواقع افزایش توان دید  اپراتورها می تواند تشخیص تروریست ها را تسهیل کند. بنابراین اگر گوگل از این پروژه بیرون بیاید، وزارت دفاع نیز در حوزه هوش مصنوعی با موانعی رو به رو می شود، این در حالی است که به گفته مقامات نظامی ایالات متحده،  چین و دیگر کشورها در حال توسعه سرمایه گذاری های خود در حوزه هوش مصنوعی هستند.

برخی از تکنولوژیست های متخصص گوگل نگرانند که با پذیرش این پروژه و همکاری در آن مدیرانشان به مرور فعالیت هایی تکنولوژیک  را برای کشتن مردم  بی گناه انجام دهند. یکی از فرهنگ های رایج گوگل این است که همه کارکنان در پلتفرم و شبکه های اجتماعی داخلی به شکل مدام ایده هایی را مطرح و با یکدیگر بحث و تبادل نظر می کنند. حتی مقامات بلند پایه گوگل نیز این کار را انجام می دهند و ناگفته پیداست که ماجرای پروژه Maven یکی از داغ ترین مباحث داخلی گوگل محسوب می شود. 

حتی این بحث تا جایی جدی شد که 2 متخصص مخالف و موافق طرح بحث داخلی ترتیب داده و ساعت ها بحث کردند، این گروه بیش از 3 مرحله بحث را به شکل زنده با کارکنان و در مرحله بعد بینندگان جهانی به اشتراک گذاشتند. بر اساس مستندات و نظرات تماشاگران فرد مخالف بر عدم وضوح بندهای این پروژه تاکید داشت و فرد موافق نیز معتقد بود گوگل هرگز از این طرح برای اهدداف نادرست استفاده نمی کند.  

سرگئی برین، بنیانگذار شرکت نیز این بحث ها را دنبال می کند و معتقد است برای افزایش صلح جهانی ارتقای سطوح نظامی و عملیاتی دولت ها اجتناب ناپذیر است.

گوگل و شرکت مادرش، آلفابت در حال حاضر از بسیاری از محققان هوش مصنوعی جهان کمک می کند، آن ها در پروژه های متعدد مشغول به کار هستند. بسیاری از این محققان اخیرا فارغ التحصیل شده اند و برخی نیز از اساتید دانشگاه ها هستند.  

 

 مترجم: رویا پاک سرشت

نظرات بینندگان