arrow-right-square Created with Sketch Beta.
کد خبر: ۴۵۵۴۳۳
تاریخ انتشار: ۲۹ : ۱۲ - ۰۶ بهمن ۱۳۹۷

بیگناهان به جای مجرمین دستگیر می شوند؟ / اشتباهات خطرناک تکنولوژی تشخیص چهره آمازون

مطالعات موسسه پژوهشی MIT نشان می دهد که تکنولوژی تشخیص چهره آمازون دچار تعصبات جنسیتی و نژادی است و این این موضوع به شدت نگران کننده به نظر می رسد.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

مطالعات موسسه پژوهشی MIT نشان می دهد که تکنولوژی تشخیص چهره آمازون دچار تعصبات جنسیتی و نژادی است و این این موضوع به شدت نگران کننده به نظر می رسد.

به گزارش سرویس آی تی و فناوری انتخاب، یک مطالعه جدید که توسط پژوهشگران  MIT انجم شده است، نشان می دهد که نرم افزار Recognition برای شناسایی جنسیت زنان مشکلاتی دارد و البته زنان رنگین پوست را سخت تر شناسایی می کند.

طبق تحقیق MIT که اخیرا منتشر شده است، فناوری تشخیص چهره آمازون اشتباهات بیشتری را در شناسایی جنسیت  زنان و رنگ پوست آنها نسبت به مردان و سفید پوستان نشان داد. این اشتباهات در مقایسه با تکنولوژی های رقابتی مایکروسافت و آی بی ام  بسیار مشخص تر بودند.

بر اساس تحقیق مذکور، نرم افزار تشخیص چهره آمازون، زنان را 19 درصد بیشتر از مردان به اشتباه شناسایی کرده و نسبت شناسایی زنان رنگین پوست نسبت به مردان سفید پوست نیز 31 درصد بود. در مقایسه با این نرم افزار،  نرم افزار مایکروسافت، درشناسایی زنان رنگین پوست نسبت به مردان سفید وست تنها 1.5 درصد  بیشتر اشتباه تشخیص داده است.

مت وود، مدیر کل هوش مصنوعی آمازون در این خصوص می گوید این نتایج چندان مهم نیستند چرا که نتایج آزمایش این تحقیق بر اساس تجزیه و تحلیل چهره است، نه تشخیص چهره. او گفت، تجزیه و تحلیل، می تواند چهره را در فیلم ها یا تصاویر پیدا و ویژگی های عمومی، مانند عینک پوشیدن را شناسایی کند، در حالی که تشخیص چهره به مسائلی کلی تر و امنیتی دقت دارد.

وود می گوید: "نتایجی که نرم افزار آمازون به دست می آورد بیشتر برای مراجع قانونی کاربرد دارد تا سیستم های تجزیه و تحلیل عمومی . در ضمن آمازون، با استفاده از نسخه به روز شده Recognition با داده های مشابه،هیچ اشتباهی ثبت نکرده است".

اما پژوهشگران MIT از این اظهارات چندان خوششان نیامده است و دبورا راجی، نویسنده این مطالعه، گفت که او و همکارانش تمایز بین تشخیص چهره و تجزیه و تحلیل صورت را درک می کنند.

راجی در ادامه گفت: "ما در مقاله خود به طور شفاف اعلام کرده ایم که چهره ها را برای ارزیابی انتخاب کردیم و کار تجزیه و تحلیل چهره بر اساس طبقه بندی جنسیتی دوتایی است.این به این معنی است که با توجه به تعداد چهره های شناسایی شده، مدل چگونه و چطور می بیند؟"

اگر به گفته های وود و راجی دقت کنیم متوجه می شویم که در حالی که این ابزارها توانایی تشخیص چهره تعداد زیادی از افراد را دارند و این موضوع می تواند قابل ستایش باشد، اما ما نمی دانیم ترکیب جمعیت شناختی و فنوتیپی (نوع پوست) این معیارها را تا چه حد تحت تاثیر قرار می دهند.

این مسئله وقتی حساس تر می شود که بدانیم آمازون اطلاعات خود را به سازمان های اجرای قانون ارائه می دهد، هرچند گروه های آزادی های مدنی، اعضای کنگره و کارکنان خود آمازون نگرانی های مربوط به حریم خصوصی را مطرح کرده اند اما هنوز روند ارائه این اطلاعت متوقف نشده است.

پژوهشگران MIT  معتقدند فروش این تکنولوژی توسط آمازون "غیر مسئولانه"  است چرا که اشتباهات فناوری تجزیه و تحلیل صورت می تواند مورد سوء استفاده بسیاری از افراد قرار گرفته و افراد بیگناه را به عنوان مجرمان به اشتباه شناسایی کند.

نظرات بینندگان