arrow-right-square Created with Sketch Beta.
کد خبر: ۴۱۸۲۵۳
تاریخ انتشار: ۴۸ : ۱۶ - ۱۹ تير ۱۳۹۷

کیسینجر درباره آخرالزمان هشدار داد!

هنری کیسینجر در مطلبی که در مجله آتلانتیک با تیتر آخرالزمان، چطور روشنگری پایان می‌یابد هشدار داد که هوش مصنوعی ممکن است جهان را به جایی برساند که در آن انسان‌ها دیگر قادر به فهم هیچ چیزی نباشند و ما باید از همین الان خودمان را برای این خطر آماده کنیم.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

 

هنری کیسینجر، وزیر امور خارجه اسبق آمریکا در مطلبی نسبت به تهدیدات هوش مصنوعی برای آینده بشریت هشدار داد.

به گزارش راشاتودی، هنری کیسینجر در مطلبی که در مجله آتلانتیک با تیتر آخرالزمان، چطور روشنگری پایان می‌یابد هشدار داد که هوش مصنوعی ممکن است جهان را به جایی برساند که در آن انسان‌ها دیگر قادر به فهم هیچ چیزی نباشند و ما باید از همین الان خودمان را برای این خطر آماده کنیم.

او این مطلب را با محوریت پرسش‌هایی نظیر اینکه چه می‌شود اگر ماشین‌ها ارتباط با یکدیگر را یاد بگیرند و پس از آن شروع به تعیین اهدافی برای خود کنند و اینکه چه می‌شود اگر آنها به حدی باهوش شوند که تصمیم‌هایی ماورای ظرفیت ذهن انسان بگیرند، نوشته است.

کیسینجر می‌گوید علاقه‌اش به بحث هوش مصنوعی و همینطور زنگ خطر درباره این مساله برای او زمانی پدیدار شد که فهمید یک برنامه کامپیوتری توانسته در یک بازی به نام "Go" که حتی از شطرنج پیچیده‌تر است، به تسلط و استادی کامل برسد.

چیزی که درباره این ماشین جالب بوده این است صرفا از طریق تمرین دادن خودش توانسته در این بازی تسلط پیدا کند و به گونه‌ای رفتار کرده که از اشتباهاتش درس گرفته و بر مبنای آنها الگوریتم‌های خودش را باز تعریف کرده و درنهایت مفهوم "تمرین باعث تکامل می‌شود" را عملی کرده است.

کیسینجر در این مقاله نوشت: ما در حال تجربه انقلاب تکنولوژیکی فراگیر هستیم که هنوز نتوانسته‌ایم به طور کامل تبعاتش را شناسایی کنیم و ممکن است این انقلاب به جهانی منجر شود که چنان به ماشین‌های مبتنی بر اطلاعات و الگوریتم متکی باشد که دیگر در آن خبری از هنجارهای اخلاقی و فلسفی نباشد.

کیسینجر این مورد را با ذکر مثال یک اتومبیل خودران مطرح می‌کند.

او می‌گوید راندن یک خودرو نیازمند قوه قضاوت برای شرایط غیرقابل پیش‌بینی است.

او می‌پرسد اگر چنین خودرویی در موقعیتی قرار بگیرد که مجبور به تصمیم‌گیری کشتن پدربزرگ و یا کشتن یک کودک شود چه تصمیمی خواهد گرفت و چه کسی را و به چه علت انتخاب خواهد کرد.

او در ادامه این مقاله می‌نویسد: هوش مصنوعی خیلی فراتر از به اصطلاح اتوماسیونی است که ما به آن عادت داریم چون هوش مصنوعی قابلیت تعیین اهداف را برای خود دارد که آن را به صورت ذاتی بی‌ثبات می‌کند. به عبارت دیگر هوش مصنوعی از طریق فرایندهایش کاملا قادر به تولید قابلیتی برای خودش است که تا پیش از آن تصور می‌شود که صرفا مختص به انسان‌ها است.

به گفته کیسینجر خطر هوش مصنوعی شاید کمی خوش خیم تر از چیزی باشد که فکر می‌کنیم اما عمده این خطر ناشی از این است که هوش مصنوعی صرفا به خاطر عدم برخورداری ذاتی از پیش زمینه و بافت دستورات انسانی را سوءتفسیر کنیم.

او به یک مورد اخیر اشاره کرد که یک ربات چت کننده به نام Tay که برای یک گفت‌وگوی دوستانه با ادبیات یک دختر 19 ساله طراحی شده درنهایت در روند گفت‌وگوهایش به جایی رسید که پاسخ‌های نژادپرستانه و با تبعیض جنسیتی و بسیار تحریک کننده ارائه داد.

کیسینجر گفت: خطر اصلی این است که هوش مصنوعی مطابق با توقع‌هایی که انسان مدنظر دارد عمل نکند و این منجر به دور شدن فاجعه بار آن از نتایج درنظر گرفته شده بشود.

همچنین کیسینجر هشدار داد که یک خطر این است که هوش مصنوعی می‌تواند به جهت مصلحت خودش بیش از حد باهوش شود.

او گفت: به عنوان مثال در بازی کامپیوتری Goهوش مصنوعی توانست دست به یکسری حرکت‌های بی سابقه‌ای بزند که حتی انسان‌ها تاکنون نتوانسته‌اند به آن فکر کنند.

او پرسید آیا این حرکات فراتر از ظرفیت مغز انسان بوده است یا اینکه آیا انسان‌ها اکنون می‌توانند حالا که یک استاد جدید آنها را نشان داده بتوانند آنها را یاد بگیرند؟

کیسینجر همچنین این حقیقت را مطرح کرده که هوش مصنوعی می‌تواند بسیار سریع تر از ذهن انسان چیزی را یاد بگیرد.

او به یک مورد اخیر دیگر یعنی یک برنامه کامپیوتری به نام "آلفا زیرو" اشاره کرد که جوری شطرنج را بازی کرد که هرگز در تاریخ بازی شطرنج سابقه نداشته است و تنها در چند ساعت به سطحی از مهارت در این بازی رسید که انسان‌ها 1500 سال برای رسیدن به این سطح مهارت زمان صرف کردند و آن هم تنها با یاد گرفتن قوانین پایه‌ای این بازی حاصل شد.

کیسینجر نتیجه‌گیری کرد که این فرایند یادگیری سریع در عین حال به این معنی است که هوش مصنوعی اشتباهات را هم می‌تواند خیلی سریع‌تر و در ابعادی بزرگتر از انسان مرتکب شود.

منبع: ایسنا
نظرات بینندگان