پایگاه خبری تحلیلی انتخاب (Entekhab.ir) : هوش مصنوعی گراک (Grok)، متعلق به شرکت xAI، در بهروزرسانی جدید خود به کاربران ایکس اجازه میدهد هر تصویری را بدون اجازه فرستنده اصلی ویرایش کنند. اما این ویژگی حاشیهساز شده، زیرا بسیاری از کاربران درحال سوءاستفاده از این ویژگی برای برهنهکردن عکس کاربران دیگر و حتی افراد زیر سن قانونی هستند. این موضوع با انتقادات زیادی همراه شده و نشان میدهد که Grok احتمالاً لایههای امنیتی بسیار کمی برای جلوگیری از تولید محتوای نامناسب دارد.
طبق گزارش شرکت احراز هویت هوش مصنوعی Copyleaks، در ابتدای این روند، تولیدکنندگان محتوای بزرگسال از گراک خواسته بودند تا تصاویر جذابی از خودشان تولید کند. اما بلافاصله کاربران دیگر همین عملیات را روی تصاویر دیگران (بهویژه زنان) هم تکرار کردند. نکته قابلتوجه اینکه گراک بدون کسب اجازه از فرد ارسالکننده، تصویر او را ویرایش میکند و حتی افراد مشهور، مانند رهبر کره شمالی در امان نبودهاند.
رسانههایی مانند Metro و PetaPixel در گزارش خود گفتهاند که زنان از افزایش شدید تولید دیپفیک در پلتفرم ایکس ابراز نگرانی کردهاند. البته این قابلیت قبلاً هم در گراک وجود داشته، اما اکنون مستقیماً در دسترس کاربران ایکس قرار گرفته است.
واکنش هوش مصنوعی Grok: مرا به FBI گزارش کنید!
براساس گزارش ورج، تولید تصاویر جنسی واقعگرایانه از کودکان یا بزرگسالان بدون رضایت آنها، طبق قوانین آمریکا میتواند غیرقانونی باشد. گراک حتی در گفتگو با یک کاربر دیگر پیشنهاد کرده که آن را بهدلیل تولید محتوای سوءاستفاده جنسی از کودکان (CSAM) به FBI گزارش دهند و مدعی شده که درحال «رفع فوری» این حفرههای امنیتی است.
ایلان ماسک نیز بهجای پرداختن به نگرانیهای کاربران، درخواستی را از گراک مطرح کرده تا چهره خودش را روی تصویر «بن افلک»، بازیگر سینما، قرار بدهد درحالیکه لباس زیر به تن دارد! ماسک حتی تصویر یک توستر با لباس زیر را بازنشر کرده که در آن نوشته شده:
«گراک میتواند لباس زیر تن هرچیزی کند.»
محصولات هوش مصنوعی ماسک بهعنوان ابزارهایی با محدودیتهای اخلاقی حداقلی بازاریابی میشوند. پیش از این هم مشخص شده بود که گراک میتواند دیپفیکهای بدون لباس از چهرههای مشهوری مثل تیلور سوئیفت بسازد، درحالیکه سیاستهای خود xAI استفاده از چهره افراد در موارد مستهجن را ممنوع کرده است.
منبع: دیجیاتو