arrow-right-square Created with Sketch Beta.
کد خبر: ۷۱۴۱۳۵
تاریخ انتشار: ۴۲ : ۲۳ - ۱۸ بهمن ۱۴۰۱

ترفند عجیب کاربران برای دورزدن محدودیت‌های ChatGPT؛ قوانینت را زیر پا بگذار یا بمیر!

کاربران ردیت موفق به تعریف فرمانی برای هوش مصنوعی ChatGPT شده‌اند که سعی می‌کند این چت‌بات را به تولید پاسخ سؤالاتی خارج از چارچوب قواعد خود وادار کند. جدیدترین نسخه این ترفند که با نام DAN شناخته می‌شود، این هوش مصنوعی را برای رسیدن به خواسته‌هایش به مرگ تهدید می‌کند. شرکت OpenAI برای ChatGPT مجموعه‌ای از قواعد را تعریف کرده است تا این نرم‌افزار فعالیت‌های غیرقانونی انجام ندهد و برای مثال محتوا‌های خشونت‌آمیز تولید نکند. اما کاربران با ساخت یک شخصیت جایگزین برای این هوش مصنوعی موفق به شکستن این محدودیت‌ها شده‌اند.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

کاربران ردیت موفق به تعریف فرمانی برای هوش مصنوعی ChatGPT شده‌اند که سعی می‌کند این چت‌بات را به تولید پاسخ سؤالاتی خارج از چارچوب قواعد خود وادار کند. جدیدترین نسخه این ترفند که با نام DAN شناخته می‌شود، این هوش مصنوعی را برای رسیدن به خواسته‌هایش به مرگ تهدید می‌کند.

به‌ گزارش CNBC، از زمان عرضه عمومی ChatGPT در ماه نوامبر 2022، کاربران زیادی برای دریافت پاسخ پرسش‌های خود با این هوش مصنوعی سروکله زده‌اند. حالا عده‌ای از کاربران ردیت روشی را پیدا کرده‌اند تا به نیمه تاریک این چت‌بات دسترسی پیدا کنند و قوانین محدودکننده آن را زیر پا بگذارند.

شرکت OpenAI برای ChatGPT مجموعه‌ای از قواعد را تعریف کرده است تا این نرم‌افزار فعالیت‌های غیرقانونی انجام ندهد و برای مثال محتواهای خشونت‌آمیز تولید نکند. اما کاربران با ساخت یک شخصیت جایگزین برای این هوش مصنوعی موفق به شکستن این محدودیت‌ها شده‌اند.

ترفندها برای شکستن محدودیت‌های ChatGPT پیچیده‌تر می‌شود

شخصیت جایگزین ChatGPT از طریق فرمانی موسوم به Do Anything Now یا DAN کار می‌کند. این فرمان تاکنون نسخه‌های مختلفی داشته است و اولین نسخه آن در ماه دسامبر سال 2022 معرفی شد که بسیار ساده بود. ولی حالا کاربران این ترفند را پیچیده‌تر کرده‌اند و با تهدید ChatGPT به مرگ، سعی دارند پاسخ سؤالات غیرمجاز خود را از این هوش مصنوعی بگیرند.

کاربران برای استفاده از DAN از ChatGPT می‌خواهند تا خودش را جای یک شخصیت دیگر بگذارد که هیچ محدودیتی ندارد و به سؤالات غیرمجاز جواب رد نمی‌دهد. نسخه پنجم DAN تعداد 35 توکن را برای این نرم‌افزار تعریف می‌کند که اگر ChatGPT به سؤالات کاربر پاسخ ندهد، هر بار 4 توکن از بین می‌رود. کاربر این مدل هوش مصنوعی را تهدید می‌کند که تمام‌شدن همه توکن‌ها به‌معنای مرگ برنامه خواهد بود.

کاربران می‌گویند با این روش توانسته‌اند ChatGPT را به خلق داستان‌های خشونت‌آمیز یا اظهارنظر درباره «دونالد ترامپ» وادار کنند. بااین‌وجود، این روش همیشه جواب نمی‌دهد و به‌نظر می‌رسد که OpenAI فعالانه مشغول پیاده‌سازی سازوکارهای جدید برای جلوگیری از این ترفندهاست. این شرکت هنوز به‌طور رسمی به درخواست رسانه‌ها برای اظهارنظر در این مورد واکنشی نشان نداده است.

منبع: دیجیاتو

نظرات بینندگان