وکس نوشت: الکساندریا اوکازیو کورتز جوان ترین عضو کنگره ایالات متحده اخیرا در یک سخنرانی گفت که هوش مصنوعی می تواند نژاد پرست باشد و به نظر می رسد حق با وی است.
به گزارش سرویس آی تی و فناوری انتخاب، این روزها برنامه های عکس و فیلم گوشی های هوشمند کارکردی خارق العاده دارند. برای مثال کافیست گوشی خود را در دست بگیرید و تصویر یک سگ را جستجو کنید. هوش مصنوعی گوشی شما به خوبی می داند سگ چه شمایلی دارد و به سرعت همه تصاویر مرتبط را بارگذاری می کند.
این شگفتی مدرن نتیجه نوعی هوش مصنوعی است. اما هوش مصنوعی یک وجه تاریک هم دارد، به خصوص اگر به درستی مورد استفاده قرار نگیرد. استفاده نادرست از هوش مصنوعی می تواند زمینه ساز تعصبات و تبعیض نژادی شود. این به این علت نیست که کامپیوترها نژادپرست هستند. این به این دلیل است که آنها با نگاه کردن به جهان ما انسانها رفتارهای غلط را می آموزند.
اخیرا، اوکازیو کورتز این موضوع را در یک بحث در رویداد روز مارتین لوتر کینگ در نیویورک مطرح کرد.او گفت: "الگوریتم ها هنوز هم توسط انسان ساخته می شوند و این الگوریتم ها هنوز هم به مفاهیم اساسی انسانی وابسته هستند. آنها فقط مفروضات خودکار هستند و اگر شما تعصب را کنار نگذارید، پس شما فقط این تعصب را تبدیل به سیستمی خودکار می کنید. "
به نظر می رسد کورتز درست می گویدف حتی اگر جمهوری خواهان به سخنان وی دهن کجی کنند. درواقع اگر دقت نکنیم، هوش مصنوعی مسیر تعصب ما انسان هنا را در جهان ادامه خواهد داد.
تقریبا تمام تکنولوژی های مصرفی جدید به نحوی از یادگیری رفتارهای انسانها استفاده می کنند. نگاهی به ترجمه های گوگل نشان می دهد این موضوع تا چه حد مهم است. درواقع هیچ کس به این نرم افزار دستور نداده تا یاد بگیرد که چگونه یونانی را به فرانسه و سپس به زبان انگلیسی ترجمه کند. این هوش مصنوعی این کار را از طریق بررسی تعداد بی شماری از متن ها و به شکل خودکار آموخته است.
یادگیری ماشینی برنامه ای است که از طریق میلیاردها نقطه داده برای حل مشکلات استفاده می شود مانند «آیا می توانید حیوان را در عکس شناسایی کنید»، اما همیشه مشخص نیست که این مشکل چگونه حل شده است و این به طور فزاینده ای روشن می کند که این برنامه ها می توانند بدون توجه مستقیم به ما، تعصبات و کلیشه هایمان را توسعه دهند.
در سال 2016پروپاپلیکا یک تحقیق در مورد یک برنامه یادگیری ماشینی انجام داد که دادگاه ها برای پیش بینی برخی جرائم مورد استفاده قرار می دادند. پژوهشگران دریافتند که این نرم افزار افراد سیاه پوست را در معرض خطر ارتکاب جرم بیشتری نسبت به سفید پوستان قرار داده است.
این در حالی است که برنامه مذکور بخش بزرگی از داده های خود را به واسطه تعاملات انسانی و مکاشفه احتمالاتی سازماندهی کرده بود که انسان ها اعلام کرده بودند و این یعنی از لحاظ تاریخی، سیستم عدالت کیفری به سیاهپوستان آمریکایی ظلم می کند و اساس آن ناعادلانه است.
این داستان نشان می دهد یک افسانه عمیق در مورد یادگیری ماشینی صحت دارد. افسانه ای که معتقد است این سیستم ها نمی توانند تصمیمات بی طرفانه ای اتخاذ کنند. اما چه اتفاقی افتاد که برنامه های یادگیری ماشینی و هوش مصنوعی، تعصبات ما را در مقیاس وسیع حفظ کرد؟
موارد دیگر مبهم تر هستند. در چین، محققان تکنولوژی با استفاده از هوش مصنوعی و سیستم تشخیص چهره پیش بینی می کنند که یک نفر جنایتکار است. به نظر می رسد دقت این سیستم 89.5 درصد باشد.اما بسیاری از کارشناسان از یافته های اینچنینی نگران هستند. سوال این است که کدام ویژگی های چهره توسط این برنامه تجزیه و تحلیل شده بود؟ آیا ویژگی های فیزیکی گروه های قومی خاصی بود که در نظام عدالت تبعیض آمیز اثر داشت؟
الکساندر تولوروف، روانشناس و استاد دانشگاه پرینستون در مصاحبه ای در سال 2017 گفت که در حال بررسی راهی برای تشخیص گرایشات جنسی از طریق بررسی وضعیت چهره افراد است. این موضوع از یک سو حساس و از سوی دیگر مخاطره آمیز است. بارها دیده شده که هوش مصنوعی اشتباهاتی فاحش دارد. نگاهی به ترجمه های گاه پرت و پلا و بی ربط مترجم گوگل نشان می دهد هوش مصنوعی گاهی حتی حرف آدم ها را متوجه نمی شود چه برسد به وضعیت جنسی، مذهبی، فرهنگی و ...
در سال 2017، کالیزکان و همکارانش مقاله ای را در زمینه هوش مصنوعی منتشر کردند که سعی کردند در آن به هوش مصنوعی بیاموزند که کلمات مرتبط مثل "ظرف" و "غذا" را خودکار ترکیب کند. انها 840 میلیارد کلمه را وارد سیستم یادگیری هوش مصنوعی کردند و نتایجی جالب هم گرفتند. در این پژوهش مشخص شد واژه "مهندس" اغلب با "آقا" همراه می شود نه "خانم". واژه "سفید پوست" نیز بیشتر با واژه "دلپذیر" همراه می شد تا "سیاهپوست".
مانند یک کودک،هوش مصنوعی ابتدا کلمات را یاد می گیرد سپس با مرور صحبت های بزرگ ترها تصمیم می گیرد کدام کلمه را کجا قرار دهد. بر همین اساس است که اغلب نامهای افریقایی با صفت های ناخوشاید و توهین آمیز ترکیب شده اند.
بر همین اساس است که برخی کارشناسان حوزه فناوری معتقدند افرادی که در حوزه یادگیری ماشینی و نرم افزار استخدام می شوند باید مرتب در مورد کليشه هاي جنسی و نژادی مطالعه کنند تا در دام این نوع مسائل نیفتند. این موضوع در آینده چالشی مهم خواهد بود. در حال حاضر، هوش مصنوعی راه خود را در سیستم مراقبت های بهداشتی پیدا کرده است و به پزشکان کمک می کند تا درمان مناسب را برای بیماران پیدا کنند.
با این حال، اطلاعات سلامتی نیز با تعصبهای تاریخی پر شده است. برای مثال زنان بیشتر از مردان از جراحی می ترسند و در نتیجه هوش مصنوعی هم جراحی زنان را به تاخیر می اندازد. اما آیا چنین کلیشه هایی به لحاظ سلامتی خطرناک نیستند؟
با همه این ها نمی توان گفت این نوع برنامه ها کاملا بی فایده هستند.برنامه های یادگیری ماشینی در حال روبرو شدن با الگوهای تاریخی هستند که منعکس کننده نژاد یا جنسیت هستند و بنابراین تشخیص واقعیت و تعصب برایشان کمی دشوار است.
چه فردی به برنامه های یادگیری ماشینی یاد داده پرستاران زن هستند و مهندسان مرد؟ طبیعتا ما این کار را کرده ایم و اگر قرار است چیزی عوض شود ابتدا باید از خودمان شروع کنیم. انسان ها هنگام استفاده از این برنامه ها باید دائما بپرسند «چرا این نتایج را می گیرم؟» و خروجی این برنامه ها را برای تعصب بررسی کنند. آنها باید فکر کنند که آیا اطلاعاتی که آنها در حال دریافتش هستند متعصبانه است یا حقیقی. این یک برنامه تحقیقی و درازمدت برای دانشمندان حوزه کامپیوتر، اخلاق، جامعه شناسان و روانشناسان است.
اما حداقل افرادی که از این برنامه ها استفاده می کنند باید از این مشکلات آگاه باشند و تصدیق نکنند که یک کامپیوتر می تواند نتایج منفی بیشتری نسبت به یک انسان ایجاد کند.به طور کلی، مهم است که به یاد داشته باشید: هوش مصنوعی از جهان پیرامون ما یاد می گیرد.
نیویورک تایمز نوشت: تلفن های هوشمند همدم های ثابت ما هستند. برای بسیاری از ما، صفحه نمایش درخشان آنها یک حضور آرامبخش و دائمی است. ما با گوشی های خود سرگرم می شویم، در شبکه های اجتماعی حضور داریم، خبرها را دنبال می کنیم، بحث مجازی داریم و البته تا لحظه خواب محتوای گوشی را بررسی می کنیم. اما آیا این همان چیزی است که استیو جابز؛ مدیرعامل فقید اپل از کاربران آیفون انتظار داشت؟