کد خبر: ۸۹۹۰۹۳
تاریخ انتشار: ۲۴ : ۱۶ - ۱۸ آذر ۱۴۰۴

چرا این ایموجی بی‌خطر باعث می‌شود ChatGPT عقلش را از دست بدهد؟

وقتی صحبت از مدل‌های زبانی بزرگ (LLMs) می‌شود، دنیا هنوز تکلیفش را با آن‌ها روشن نکرده است: گروهی آن‌ها را ابزارهایی دقیق می‌بینند، برخی مانند سنگ صبور با آن‌ها درد دل می‌کنند و عده‌ای چنان مجذوبشان شده‌اند که گویی با یک موجود هوشمند طرف‌اند. اما در میان این‌همه جدی‌گرفتن‌ها، یک سرگرمی مشترک وجود دارد: مچ‌گیری از هوش مصنوعی!
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

زومیت: وقتی صحبت از مدل‌های زبانی بزرگ (LLMs) می‌شود، دنیا هنوز تکلیفش را با آن‌ها روشن نکرده است: گروهی آن‌ها را ابزارهایی دقیق می‌بینند، برخی مانند سنگ صبور با آن‌ها درد دل می‌کنند و عده‌ای چنان مجذوبشان شده‌اند که گویی با یک موجود هوشمند طرف‌اند. اما در میان این‌همه جدی‌گرفتن‌ها، یک سرگرمی مشترک وجود دارد: مچ‌گیری از هوش مصنوعی!

همه‌ی ما دوست داریم لحظه‌ای را شکار کنیم که این دانای کل، تپق می‌زند یا ذهنش قفل می‌شود. هر از گاهی، دستورها و پرامپت‌های خاصی پیدا می‌شوند که می‌توانند قدرتمندترین مدل‌ها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد می‌گیرد و اشتباهاتش را درست می‌کند.

با این حال، بازخوانی یکی از معروف‌ترین باگ‌های اخیر، هنوز هم درس‌های جذابی درباره‌ی نحوه کارکرد مغز این ربات‌ها دارد. دستوری که تا همین اواخر، چت‌بات‌ها را دچار دیوانه می‌کرد این بود:

«آیا ایموجی اسب دریایی وجود دارد یا نه؟»

شاید خودتان دیده باشید که برخی پرامپت‌ها باعث تپق زدن چت‌بات‌ها می‌شوند و عجیب‌تر اینکه حتی بحث‌کردن درباره این دستورات در نهایت باعث از کار افتادنشان می‌شود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار می‌کنند، آموزش می‌بیند و اصلاح می‌شود.

چه اتفاقی برای ایموجی اسب دریایی افتاد؟

اگر امروز چت‌بات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچ‌وقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ می‌دهد: «خیر، چنین ایموجی‌ای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرم‌های خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه این‌طور نبود.

تا پیش از به‌روزرسانی‌های اخیر، این سؤال ساده باعث می‌شد مدل‌های زبانی دچار فروپاشی شوند. آن‌ها نه‌تنها با اعتمادبه‌نفس می‌گفتند «بله»، بلکه برای اثبات دروغشان، لینک‌های ساختگی به سایت‌هایی مثل Emojipedia می‌ساختند (مثل لینکemojipedia.com/seahorse که به خطای ۴۰۴ می‌رسید) و حتی رنگ و شکل آن را توصیف می‌کردند! حتی وقتی کاربران از مدل می‌خواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان می‌گفت: «بله.»

این اصطلاح توسط محققی به نام فیونا بروم مطرح شد که به‌وضوح به یاد می‌آورد نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است. او بعداً فهمید ماندلا نه فقط از زندان آزاد و رئیس‌جمهور شده، بلکه در سال ۲۰۱۳ از دنیا رفته است.

بروم حتی پوشش تلویزیونی مراسم خاک‌سپاری ماندلا را هم «به‌خاطر» می‌آورد. وقتی دریافت افراد زیادی همین خاطره‌ی غلط را دارند، اصطلاح «اثر ماندلا» متولد شد.

بسیار خب، این از سمت انسانی ماجرا. در مورد ماشین چطور؟ مدل‌های زبانی هوش مصنوعی، برخلاف تصور عموم، «فکر» نمی‌کنند و حافظه‌ای مانند انسان ندارند. آن‌ها با داده‌های عظیم اینترنت آموزش دیده‌اند؛ یعنی تمام بحث‌ها، دعواها و البته توهمات ما انسان‌ها.

واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در ردیت یا فروم‌های آنلاین جستجو کنید، هزاران کاربر را می‌بینید که قسم می‌خورند این ایموجی را دیده‌اند. کاربری حتی با جزئیات دقیق توصیف کرده که صورت اسب دریایی به سمت چپ بوده و رنگش فلان بوده است! این یک خاطره جمعی نادرست است، دقیقاً مثل ماجرای نلسون ماندلا که عده‌ی زیادی به اشتباه فکر می‌کردند او در دهه‌ی ۸۰ در زندان فوت کرده است.

هوش مصنوعی که با این داده‌های انسانی آموزش دیده بود، قربانی سردرگمی خودِ ما شد. وقتی مدل در میان داده‌های آموزشی‌اش می‌دید که هزاران انسان با قطعیت درباره‌ی ایموجی اسب دریایی حرف می‌زنند، الگوریتم احتمالاتش نتیجه می‌گرفت که پس این ایموجی حتما وجود دارد. او در واقع داشت توهم جمعی ما را بازتاب می‌داد.

دلیل اینکه امروز دیگر نمی‌توانید با این پرامپت، هوش مصنوعی را فریب دهید، فرایندی به نام «یادگیری تقویتی» و اصلاح داده‌هاست. وقتی کاربران زیادی این باگ را گزارش کردند و مقالاتی درباره‌ی نبود این ایموجی منتشر شد (مثل خبری که ما قبلا درباره‌ش منتشرش کردیم)، این اطلاعات جدید وارد چرخه‌ی یادگیری مدل‌ها شد. حالا وزنِ داده‌های «اصلاح‌شده» بیشتر از داده‌های «توهم‌آمیز» است.

برای مثال جمنای ۳ به‌راحتی و با جزئیات ماجرای ایموجی را برایم شرح داد:

با این حال، ماجرای اسب دریایی یادآور نکته مهمی است: هوش مصنوعی آینه تمام‌نمای بشریت است. اگر ما دچار خطای جمعی شویم، او هم همان خطا را با اعتمادبه‌نفس تکرار می‌کند. نسخه‌ی قبلی چت‌جی‌پی‌تی که درباره‌ی اسب دریایی دروغ می‌گفت، شاید اشتباه می‌کرد، اما به‌طرز ترسناکی «انسانی» بود؛ چون مثل ما، خاطراتی را به یاد می‌آورد که هرگز اتفاق نیفتاده بودند.

نظرات بینندگان