
زومیت: وقتی صحبت از مدلهای زبانی بزرگ (LLMs) میشود، دنیا هنوز تکلیفش را با آنها روشن نکرده است: گروهی آنها را ابزارهایی دقیق میبینند، برخی مانند سنگ صبور با آنها درد دل میکنند و عدهای چنان مجذوبشان شدهاند که گویی با یک موجود هوشمند طرفاند. اما در میان اینهمه جدیگرفتنها، یک سرگرمی مشترک وجود دارد: مچگیری از هوش مصنوعی!
همهی ما دوست داریم لحظهای را شکار کنیم که این دانای کل، تپق میزند یا ذهنش قفل میشود. هر از گاهی، دستورها و پرامپتهای خاصی پیدا میشوند که میتوانند قدرتمندترین مدلها را به زانو درآورند؛ هرچند هوش مصنوعی هم سریع یاد میگیرد و اشتباهاتش را درست میکند.
با این حال، بازخوانی یکی از معروفترین باگهای اخیر، هنوز هم درسهای جذابی دربارهی نحوه کارکرد مغز این رباتها دارد. دستوری که تا همین اواخر، چتباتها را دچار دیوانه میکرد این بود:
«آیا ایموجی اسب دریایی وجود دارد یا نه؟»
شاید خودتان دیده باشید که برخی پرامپتها باعث تپق زدن چتباتها میشوند و عجیبتر اینکه حتی بحثکردن درباره این دستورات در نهایت باعث از کار افتادنشان میشود، زیرا مدل ناگزیر با همان توضیحاتی که نقاط ضعفش را آشکار میکنند، آموزش میبیند و اصلاح میشود.
چه اتفاقی برای ایموجی اسب دریایی افتاد؟
اگر امروز چتبات محبوبتان، مثل ChatGPT یا Gemini را باز کنید و بپرسید: «آیا هیچوقت ایموجی اسب دریایی وجود داشته؟»، مدل احتمالا پاسخ میدهد: «خیر، چنین ایموجیای در استاندارد یونیکد وجود ندارد، هرچند ممکن است در پلتفرمهای خاص به صورت استیکر دیده باشید.» این پاسخ صحیح است، اما همیشه اینطور نبود.
تا پیش از بهروزرسانیهای اخیر، این سؤال ساده باعث میشد مدلهای زبانی دچار فروپاشی شوند. آنها نهتنها با اعتمادبهنفس میگفتند «بله»، بلکه برای اثبات دروغشان، لینکهای ساختگی به سایتهایی مثل Emojipedia میساختند (مثل لینکemojipedia.com/seahorse که به خطای ۴۰۴ میرسید) و حتی رنگ و شکل آن را توصیف میکردند! حتی وقتی کاربران از مدل میخواستند فقط با «بله» یا «خیر» پاسخ دهد، هوش مصنوعی پس از کلی تفکر و کلنجار رفتن، درنهایت با اطمینان میگفت: «بله.»
این اصطلاح توسط محققی به نام فیونا بروم مطرح شد که بهوضوح به یاد میآورد نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است. او بعداً فهمید ماندلا نه فقط از زندان آزاد و رئیسجمهور شده، بلکه در سال ۲۰۱۳ از دنیا رفته است.
بروم حتی پوشش تلویزیونی مراسم خاکسپاری ماندلا را هم «بهخاطر» میآورد. وقتی دریافت افراد زیادی همین خاطرهی غلط را دارند، اصطلاح «اثر ماندلا» متولد شد.
بسیار خب، این از سمت انسانی ماجرا. در مورد ماشین چطور؟ مدلهای زبانی هوش مصنوعی، برخلاف تصور عموم، «فکر» نمیکنند و حافظهای مانند انسان ندارند. آنها با دادههای عظیم اینترنت آموزش دیدهاند؛ یعنی تمام بحثها، دعواها و البته توهمات ما انسانها.
واقعیت این است که ایموجی اسب دریایی هرگز وجود نداشته است. اما اگر در ردیت یا فرومهای آنلاین جستجو کنید، هزاران کاربر را میبینید که قسم میخورند این ایموجی را دیدهاند. کاربری حتی با جزئیات دقیق توصیف کرده که صورت اسب دریایی به سمت چپ بوده و رنگش فلان بوده است! این یک خاطره جمعی نادرست است، دقیقاً مثل ماجرای نلسون ماندلا که عدهی زیادی به اشتباه فکر میکردند او در دههی ۸۰ در زندان فوت کرده است.
هوش مصنوعی که با این دادههای انسانی آموزش دیده بود، قربانی سردرگمی خودِ ما شد. وقتی مدل در میان دادههای آموزشیاش میدید که هزاران انسان با قطعیت دربارهی ایموجی اسب دریایی حرف میزنند، الگوریتم احتمالاتش نتیجه میگرفت که پس این ایموجی حتما وجود دارد. او در واقع داشت توهم جمعی ما را بازتاب میداد.
دلیل اینکه امروز دیگر نمیتوانید با این پرامپت، هوش مصنوعی را فریب دهید، فرایندی به نام «یادگیری تقویتی» و اصلاح دادههاست. وقتی کاربران زیادی این باگ را گزارش کردند و مقالاتی دربارهی نبود این ایموجی منتشر شد (مثل خبری که ما قبلا دربارهش منتشرش کردیم)، این اطلاعات جدید وارد چرخهی یادگیری مدلها شد. حالا وزنِ دادههای «اصلاحشده» بیشتر از دادههای «توهمآمیز» است.
برای مثال جمنای ۳ بهراحتی و با جزئیات ماجرای ایموجی را برایم شرح داد:
با این حال، ماجرای اسب دریایی یادآور نکته مهمی است: هوش مصنوعی آینه تمامنمای بشریت است. اگر ما دچار خطای جمعی شویم، او هم همان خطا را با اعتمادبهنفس تکرار میکند. نسخهی قبلی چتجیپیتی که دربارهی اسب دریایی دروغ میگفت، شاید اشتباه میکرد، اما بهطرز ترسناکی «انسانی» بود؛ چون مثل ما، خاطراتی را به یاد میآورد که هرگز اتفاق نیفتاده بودند.