arrow-right-square Created with Sketch Beta.
کد خبر: ۴۵۶۵۰۰
تاریخ انتشار: ۰۳ : ۱۷ - ۱۰ بهمن ۱۳۹۷

روبات ها قاتل نیستند اما خطرناکند / 6 چالش عمده انسان و هوش مصنوعی در سال 2019 

تکنولوژی ریویو نوشت: چشم انداز هوش مصنوعی و روباتیک همیشه در سراسر جهان شگفت انگیز است اما اتفاقات سال گذشته نشان داد که هوش مصنوعی در طول زمان می تواند مخاطراتی را ایجاد کند.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

تکنولوژی ریویو نوشت: چشم انداز هوش مصنوعی و روباتیک همیشه در سراسر جهان شگفت انگیز است اما اتفاقات سال گذشته نشان داد که هوش مصنوعی در طول زمان می تواند مخاطراتی را ایجاد کند.

به گزارش سرویس آی تی و فناوری انتخاب، طرح فیسبوک برای ادغام واتس اپ، فیسبوک مسنجر و البته اینستاگرام یک زنگ خطر بزرگ است. آخرین روش های هوش مصنوعی برای انجام مجموعه ای از  وظایف ادراکی نظیر طبقه بندی تصاویر و تکرار سخنرانی فوق العاده است، اما به نظر می رسد هیجان بر این مهارت ها غلبه کرده و باعث شده ما تا حدی مجذوب این علم شویم که محدودیت ها و مشکلاتش را نادیده بگیریم . 6 تناقض سال 2018 به عنوان هشدارهایی مطرح می شود که نشان می دهد حتی هوشمندترین الگوریتم های هوش مصنوعی نیز می توانند  اشتباهاتی داشته باشند:

 

 ماشین های خودران

محققان پس از یک حادثه مرگبار در ارتباط با یکی از خودروهای خود ران اوبر، در ماه مارس متوجه شدند که فناوری این شرکت به طور فاجعه باری شکست خورده است و این حادثه به راحتی قابل تکرار است.خودروسازانی مانند فورد و جنرال موتورز و تازه واردینی مانند اوبر دارند تا یک فناوری جدید را بفروشند که میلیاردها دلار سرمایه گذاری جذب کرده است.وایمو نیز به عنوان یک شرکت تابعه از  الفابت در این حوزه بیشترین پیشرفت را انجام داده است؛ چرا که نخستین سرویس تاکسی کاملا مستقل خود را طی سال گذشته در آریزونا رونمایی کرده است. اما حتی تکنولوژی وایمو نیز محدود است و اتومبیل های خودران نمی توانند در همه جا و در همه شرایط رانندگی کنند.

پیش بینی می شود در سال 2019 اداره ایمنی ترافیک ایالات متحده آمریکا تغییراتی در قوانین ایمنی موجود دهد تا با مشکلات سال 2018 رو به رو نشود. اما عابران پیاده و رانندگان انسانی نیز باید با قوانین جدید کنار بیایند.

 

مشکلات هوش مصنوعی و سیاست

در ماه مارس، 2018 ماجرای کمبریج آنالیتیکا ئ فیسبوک یک جنجال اساسی ایجاد کرد. ماجرایی که حکایت از آن داشت که فیسبوک داده های خود را به این موسسه می فروشد و البته این موسس نیز بی اجازه کاربران فعالیت های مجازی آنان را رصد می کند. از سوی دیگر عدم کنترل کافی فیسبوک در شبکه های اجتماعی نیز مزید بر علت شد تاسال گذشته را سالی پر از شکست  در حوزه حریم خصوصی برای اهالی فناوری ارزیابی کنیم.

افزون بر این ها، طی جلسه رسمی کنگره، مدیر عامل فیسبوک، مارک زاکربرگ وعده داده هوش مصنوعی بتواند آموزش ببیند و محرمانه بودن محتوای مخرب را تشخیص دهد، حتی اگر هنوز قادر به درک معنای متن، تصویر یا ویدئو نباشد. اما این اتفاق تا کنون نیفتاده است. بنابراین انتظار می رود در سال 2019 وعده های زاکربرگ در انتخابات دو کشور بزرگ آفریقا یعنی  آفریقای جنوبی و نیجریه آزمایش شود.

 

تکنولوژی های امنیتی دولتی

سال گذشته، هنگامی که کارکنان گوگل متوجه شدند که کارفرمایشان مشغول تهیه تصاویر پهبادها برای نیروی هوایی ایالات متحده،ست یک جنبش اعتراضی شکل دادند و معتقد بودن تکنولوژی های گوگل نباید در خدمت جنگ افزارها و کشتار مردم بیگناه باشد.  بر همین اساس نیز حتی گوگل مجبور شد پروژه «ماون» یعنی پروژ همکاری با پنتاگون را رها کند.

 

بر همین اساس پیشبینی می شود در سال 2019 هزینه های پروژه های آژانس های انرژی پنتاگون افزایش یابد، چرا که فعالان فناوری در این سازمان امیدوارند که یک معاهده جدید با سازمانی جدید در حوزه تکنولوژی های خود برقرار کنند.

 

تکنولوژی های نظارت بر شهروندان

توانایی فوق العاده هوش مصنوعی برای شناسایی چهره ها موجب شده است کشورهای مختلف، فناوری نظارت بر شهروندان را با نرخ قابل توجهی به کار گیرند. تشخیص چهره به شما اجازه می دهد گوشی خود را باز کنید و به طور خودکار عکس ها را در رسانه های اجتماعی تگ کنید. با این حال فعالان و گروه های آزادی های مدنی در مورد آینده نگران هستند وهشدار می دهند، چرا که معتقدند  این تکنولوژی یک راه بسیار قدرتمند برای حمله به حریم خصوصی افراد است.

در بسیاری از کشورها، مثل چین و ایالات متحده این تکنولوژی براینظارت بر شهروندان، بررسی وضعیت مهاجران و مواردی مشابه در حال استفاده است.

پیشبینی می شود در سال 2019 تشخیص چهره به وسایل نقلیه و وب کم ها گسترش پیدا کند و از آن برای ردیابی احساسات و هویت شما استفاده شود. بنابراین ممکن است مقررات مقدماتی آن را در سال جاری ببینیم.

 

ساخت ویدئوهای جعلی

پخش سالانه فیلم های "deepfake" در سال گذشته نشان داد که با استفاده از هوش مصنوعی می توان ساخت کلیپ هایی جعلی را ساده تر کرد. این موضوع به ویژه در صنعت فیلمهای غیراخلاقی به وفور دیده شده و باعث نگرانی بسیاری از افراد است.

بر این اساس پیشبینی می شود در سال 2019 نظارت روی محتواهایی که در بخش ویدئویی منتشر می شوند افزایش یافته و پلترم هایی برای تشخیص فیلم های اصلی و جعلی طراحی شوند.

 

 تبعیض الگوریتمی

در سال گذشته مشخص شد که الگوریتم های هوش مصنوعی اغلب تبعیض های جنسی یا نژادی می گذارند. برای مثال هوش مصنوعی مردان را مهندس تر می داند تا زنان و حتی در استخدام نیز بین جنسیت تبعیض می گذارد. با توجه به مسئله تعصب و سقف شیشه ای نیز،  زنان تنها کمی بیشتر از 30 درصد از مشاغل صنعتی و کمتر از 25 درصد از نقش های تدریس در دانشگاه های برتر را در اختیار دارند و این موضوع در مورد اقلیت هایی مثل لاتین تبارها یا سیاهپوستان هم صدق می کند.

پیشبینی می شود در سال 2019 روش هایی برای تعتدیل تعصبات و کاهش سوء گیری ها طراحی شود.

 

نظرات بینندگان