الگوریتم شناسایی احتمال خودکشی فیسبوک از سال 2017 توسط گروهی از پژوهشگران این شبکه اجتماعی در حال آزمون است و این روزها نیز بار دیگر در کانون توجه قرار گرفته است. اما شاید برایتان جالب باشد بدانید اصلا این الگوریتم چیست و چگونه کار می کند.
به گزارش سرویس آی تی و فناوری انتخاب، فیس بوک به طور خودکار تمامی پست های کاربران ایالات متحده را رتبه بندی می کند و در مقیاسی از 0 تا 1 برای خطر آسیب های احتمالی شخصیتی و روانی مثل خودکشی امتیاز بندی می کند. درواقع فیسبوک تقریبا هر پستی را روی پلت فرم خود اسکن می کند تا تلاش کند خطر خودکشی را ارزیابی و رده بندی کند.
با این وجود برخی از کارشناسان حفظ حریم خصوصی می گویند چه کاربران بخواهند نتایج این آزمونها را دریافت کنند و چه نخواهند، باز هم فیسبوک این اطلاعات را فارغ از نظر کاربران بررسی می کند و در نتیجه این یک خطر بزرگ برای حریم خصوصی کاربران است.
در ماه مارس سال 2017، فیسبوک یک طرح بلندپروازانه برای جلوگیری از خودکشی با هوش مصنوعی راه اندازی کرد. این موضوع از زمانی پررنگ شد که برخی از افراد شروع به خودکشی و پخش زنده آن در شبکه های اجتماعی کردند و حتی برخی از افراد، شبکه های اجتماعی را مقصر اصلی این نوع حوادث ارزیابی کردند.
اما بیش از یک سال بعد، پس از یک موج رسوائی های حفظ حریم خصوصی کمبریج آنالیتیکا ، ایده فیس بوک در حوزه ایجاد و ذخیره اطلاعات بهداشت روانی بدون اجازه کاربر، باعث نگرانی کارشناسان حریم خصوصی در مورد این شده است که آیا فیسبوک می تواند منبعی قابل اعتماد برای بررسی اطلاعات افراد باشد؟
این الگوریتم تقریبا به هر پست که یک کاربر در فیسبوک منتشر می کند مربوط می شود، هر قطعه از این محتواها در یک مقیاس رده بندی می شود و یکی از آن ها بالاترین احتمال «آسیب روانی» را بیان می کند.اما این روند ایجاد اطلاعات به تنهایی موجب نگرانی برای ناتاشا دوارتی، تحلیلگر سیاست در مرکز دموکراسی و فناوری ایالات متحده می شود. او می گوید: "من فکر می کنم این باید به عنوان دسترسی فیسبوک به اطلاعات بهداشتی حساس در نظر گرفته شود.هر کسی که این نوع اطلاعات را جمع آوری می کند یا اینکه این نوع از نتیجه گیری ها را در مورد افراد ایجاد می کند، باید آن را به عنوان اطلاعات بهداشتی حساس و مخفی رده بندی کند و از مقامات فدرال اجازه داشته باشد."
این در حالیست که در حال حاضر شرکت هایی مانند فیسبوک که در زمینه سلامت فرد از منابع داده های غیرمستقیم نتیجه گیری می کنند، در مقررات مربوط به حریم خصوصی در نظر گرفته نمی شوند فیسبوک، این اطلاعات را اندازه گیری می کند اما به عنوان اطلاعات حساس طبقه بندی نمی کند.
بررسی الگوریتم فیسبوک به این معنی نیست که به طور صد در صد می توان رفتارهای حقیقی افراد را از روی رفتارهای مجازی آنان پیشبینی کرد، بلکه شاید تنها بتوان حدس زد که برخی از افراد به کمک نیاز دارند.
در ماه سپتامبر، فیسبوک اعتراف کرد که یک نقض گسترده حیم داده ها و پروفایل های حدود 30 میلیون نفر را تجربه کرده است. بنابراین آیا می توان مطمئن نبود که فیسبوک اطلاعات مرتبط با وضعیت روانی افراد را به سازمان هایی که قصد استخدام افراد را دارند نفروشد؟
درواقع سوال برخی این است که اصلا چه کسی می تواند اطلاعات سلامت روان در فیسبوک را ببیند؟
هنگامی که یک پست برای خطر بالقوه خودکشی پرچم گذاری می شود، آن متن به تیم نظارتی محتوا ارسال می شود. فیسبوک مدعی است به تیم ناظر آموزش داده که کدام نوع از پست ها خطرناک تر هستند. روزنامه وال استریت ژورنال با بررسی هزاران نفر از مدیران محتوا فیس بوک در سال 2017، می گوید آنها به طور عمده کارکنان قراردادی بودند.
پس از بررسی اولیه اگر قصد خودکشی کاربر جدی گرفته شود، حتما به پلیس اطلاع داده خواهد شد. فیسبوک می گوید طی سال گذشته میلادی موفق شده به 3500 نفر در سراسر جهان کمک کند. البته این مداخلات همیشه هم موفق نیست و گاهی منجر به درگیری افرادی با پلیس می شود که اصلا قصد خودکشی نداشتند.
فیس بوک از الگوریتم خودکشی برای اسکن پست ها در زبان های انگلیسی، اسپانیایی، پرتغالی و عربی استفاده می کند، اما پست ها را در اتحادیه اروپا اسکن نمی کند، چرا که قوانین سخت گیرانه اتحادیه اروپا مانع از این کار است.
طبق گزارش سازمان بهداشت جهانی، تقریبا 800 هزار نفر سالانه خودکشی می کنند و بسیاری از این افراد را نوجوانان تشکیل می دهند، بنابراین شاید فارغ از ماجرای حفظ حریم خصوصی بتوان امیدوار بود فیسبوک نقشی مثبت در کنترل افسردگی و خودکشی ایفا کند.
*رویا پاک سرشت
وزنه بردار کشورمان جزو 4 نامزد کسب عنوان بهترین وزنه بردار معلول 2018 قرار گرفت.
حالا میخواد خودش با دم و دستگاهی که عامل این افسردگی هست ملت رو از خود کشی نجات بده
ببینید چه دنیای احمقانه ای رو برامون ساختن