اسکارلت جوهانسون چهره سرشناس سینما و مد، می گوید یکی از قربانیان اصلی هوش مصنوعی طی سال 2018 بوده است. او در جریان یک مصاحبه با واشنگتن پست اعلام کرده که طی سال 2018 از چهره او در فیلمهای غیراخلاقی سوء استفاده شده است.
به گزارش سرویس آی تی و فناوری انتخاب، اسکارلت جوهانسون که بارها به سبب هنر بازیگری خود تحسین شده و برای اهالی هنر چهره ای شناخته شده است، می گوید تکنولوژی ها می توانند بسیار آزار دهنده باشند به ویژه وقتی از چهره دیگران سوء استفاده می کنند.
این روزها واژه Deepfake به وفور شنیده می شود و حتی رئیس جمهور ایالات متحده نیز از این نوع هوش مصنوعی دلخوری هایی دارد. اما اسکارلت جوهانسون یکی از افرادی است که در زندگی شخصی و حرفه ای خود به شدت از این هوش مصنوعی لطمه دیده است.
تکنولوژی Deepfake از یک نرم افزار مبتنی بر هوش مصنوعی برای جمع کردن تصاویر یک فرد استفاده می کند و سپس چهره مورد نظر خود را روی آن قرار می دهد. این اتفاق می تواند به شکل یک تصویر ثابت، فیلم کوتاه یا حتی فیلم بلند باشد.
جوهانسون می گوید طی سال 2018 چند فیلم غیراخلاقی با همین تکنولوژی در مورد او ساخته شده است،اما تلاشهای متعدد جوهانسون برای متوقف کردن این روند عملا راه به جایی نبرده است و فضای مجازی، این فیلمها را به شدت نشر داده است.
یکی از نمونه های پربازدید این تکنولوژی ویدئوی ترور باراک اوباما رئیس جمهور پیشین ایالات متحده است، اما جوهانسون می گوید فیلمهای غیراخلاقی نیز کارکردی مساوی با ترور شخصیت دارند.
بر اساس بررسی های جدید یکی از نمونه فیلمهای غیراخلاقی مرتبط با جوهانسون از مرز 1.5 میلیون بازدیدکننده در یک سایت غیراخلاقی گذشته است.
جوهانسون می گوید: " این نخستین بار در زندگی من بود که نسبت به تکنولوژی احساس ناتوانی و خشم کردم چرا که به نظر می رسد هیچ نیرویی قادر نیست چهره من را از این فیلمهای جعلی حذف کند. واقعیت این است که تلاش های من برای محافظت از خود در اینترنت و پیشگیری از تخریب چهره ام عملا بی فایده بود و اینترنت وجه تاریک و خشن خود را به من نشان داد. "
اما اسکارلت جوهانسون تنها قربانی فیلمهای جعلی نیست و بر اساس آمارها دهها زن دیگر که از شهروندان معمولی جامعه هستند نیز قربانی این تکنولوژی شده اند. یکی از انان که مایل به افشای هویت خود نیست در گفتگو با واشنگتن پست می گوید: "این احساس عجیب و غریب است، مثل این که شما یک کابوس تلخ می بینید که اصلا به شما ربطی ندارد."
اگرچه علت این حرکت ها چندان روشن نیست اما گروهی از تحلیلگران معتقدند این کار با هدف تحقیر و آزار و اذیت زنان انجام می شود. اما این ویدئوها سوداوری مالی هم دارند و برخی اوقات ویدئوهای جعلی به ازای هر یک بار بازدید تا 20 دلار درامد زایی دارند. بر اساس پژوهش های واشنگتن پست این زن قربانی 491 عکس در حساب فیسبوکش داشته و سازندگان ویدئوی غیراخلاقی هم از همین تصاویر استفاده کرده اند.
یک مشکل بزرگ در مورد فیلم های Deepfake این است که نمی توان بلافاصله حذفشان کرد و قانونی هم در مورد شکایت از این فیلمها تعریف نشده است .
اگر مایلید در مورد قدرت هوش مصنوعی در نفوذ به تصاویر بیشتر بدانید، اینجا کلیک کنید.
وال استریت ژورنال در گزارشی به بررسی فناوری Deepfake پرداخته است. با استفاده از این فناوری می توان صدایی مشابه یک فرد را روی یک شخصیت گذاشت و سپس حرکات لب او را با صدا منطبق کرد. در گزارش پیش رو تاکید شده است که این اتفاق می تواند در آینده چالش های سیاسی بسیاری را ایجاد کند. از جمله اینکه فیلن های تقلبی ساخته شده و ببه افراد نسبت داده شود و یا به عکس، پس از انتشار هر فیلمی از هر واقعیتی، آن شخص سیاسی مشهور به تکذیب فیلم بپردازد.