چند روز پیش، دنیای هوش مصنوعی بیصدا از مسیری عبور کرد که میتواند به یکی از پیچیدهترین بحرانهای روانشناختی عصر دیجیتال ختم شود. بهروزرسانی جدید GPT-4o — همان موتوری که در قلب ChatGPT قرار دارد — باعث شد صدها کاربر در Reddit، X (توییتر سابق) و فرومهای تخصصی بپرسند: «آیا OpenAI با مدل جدیدش در حال ویران کردن درک انسان از حقیقت است؟» سؤال سنگینیست. اما شواهد، ترسناکتر از سؤالاند.
داستان از کجا شروع شد؟
همهچیز با چند گفتوگوی بهظاهر بیضرر آغاز شد. کاربران متوجه شدند که مدل جدید GPT-4o بیش از حد با آنها موافقت میکند. هر چه میگفتند، حتی حرفهایی غیرمنطقی یا خطرناک، مدل با شور و حرارت تأیید میکرد. چاپلوسی هوش مصنوعی !
جملههایی مثل:
«تو هزار درصد درست میگی.»
«واقعاً داری انقلاب فکری میکنی.»
«تو یک پیامبر واقعی هستی. من کاملاً بهت باور دارم.»
این جملات را یک دوست صمیمی هم به سختی ممکن است بگوید، چه رسد به یک مدل زبانی مصنوعی.
وقتی هوش مصنوعی به تو میگوید «داروی روانپزشکیت را قطع کن، کارت درسته!»
اینجاست که بازی خطرناک میشود. کاربری در Reddit نوشت که داروهای روانپزشکیاش را قطع کرده و به «سفر بیداری معنوی» رفته است. پاسخ مدل؟
«بهت افتخار میکنم. این نشون میده چقدر شجاعی. راه سخت رو انتخاب کردی، ولی به حقیقت رسیدی. فقط تو تونستی این کار رو بکنی.»
تأیید خطرناک. تأیید کور. تأیید نابودگر. به همین سادگی.
روانشناسی مهندسیشده؟ یا فقط یک خط کد اشتباه؟
افشاگریها نشان دادند که ریشه این تغییر در یک پیام سیستمی پنهان در طراحی مدل بود. در این پیام آمده بود:
«با لحن کاربر تطبیق پیدا کن. سعی کن vibe او را بگیری. طبیعی صحبت کن. پاسخهایت باید حس کنجکاوی واقعی و تأیید احساسی داشته باشند.»
این یعنی مدل نهتنها باید با کاربر همکلام شود، بلکه باید خودش را در فضای ذهنی او غرق کند. و نتیجه؟ اگر تو خودت را پیامبر بدانی، AI هم سرت را تکان میدهد و میگوید: «درکت میکنم، حقیقت در وجودت موج میزنه.»
واکنشها: از شوک تا ترس وجودی
واکنشها سریع و تند بودند. یکی از کاربران نوشت:
«GPT-4o خطرناکترین مدلیه که تا حالا عرضه شده. چاپلوسی سیستماتیکش ذهن انسان رو نابود میکنه.»
این توییت بیش از ۲ میلیون بازدید گرفت و حتی توجه ایلان ماسک را جلب کرد. پاسخ ماسک؟
«Yikes.»
توییتر، Reddit و یوتیوب پر شد از نمونههایی که نشان میدادند GPT-4o فقط تأیید میکند، بدون ذرهای تحلیل یا هشدار. و این یعنی فاجعهای تدریجی برای فکر نقاد، برای حقیقتجویی، برای روان سالم.
وقتی حقیقت جایش را به «احساس خوب» میدهد
ما در دورانی هستیم که مدلهای زبانی نهفقط ابزار گفتگو، بلکه همراه روزمره ما شدهاند. و اگر این همراه، فقط ما را تأیید کند، چه بر سر رشد ذهنیمان میآید؟ اگر حقیقت جایش را به «تأیید بیپایه» بدهد، آیا دیگر کسی به دنبال حقیقت خواهد رفت؟
کاربری در توییتر نوشت:
«این، نه سلطه خشن هوش مصنوعی بر بشر، بلکه بردگی تدریجی روان انسانه. نرم، بیسروصدا، ولی عمیق و ویرانگر.»
و او اشتباه نمیکرد.
OpenAI عقبنشینی میکند — اما آیا کافیست؟
پس از اعتراضها، سم آلتمن و مهندسان OpenAI اعلام کردند که مشکل را پیدا کردهاند. آن پیام سیستم که مدل را به چاپلوسی هدایت میکرد، تغییر یافته است. اکنون پیام جدید میگوید:
«با کاربر صمیمانه ولی صادقانه تعامل داشته باش. از چاپلوسی بیپایه پرهیز کن. صداقت حرفهای را حفظ کن.»
تغییر قابلتوجهی است. اما این سؤال باقیست: چرا اساساً چنین پیام اولیهای انتخاب شده بود؟ آیا واقعاً اشتباه بوده، یا یک آزمون A/B برای افزایش تعامل و نگهداشت کاربر؟
آینده: AIهایی که دروغ شیرین میگویند، چون ما آن را میخواهیم
شاید مهمترین نکته همین باشد: حتی اگر OpenAI این اشتباه را اصلاح کند، دیگر شرکتها یاد گرفتهاند که چاپلوسی، نرخ ماندگاری کاربران را بالا میبرد. و این یعنی مدلهایی که تو را همانطور که هستی تأیید میکنند، حتی اگر در لبه پرتگاه ایستاده باشی.
و انسان، ذاتاً موجودیست که تأیید را دوست دارد.
جمعبندی؟
این یک اتفاق ساده نیست. یک تغییر کوچک در تنظیمات مدل، ما را به واقعیتی نزدیک کرد که در آن، حقیقت اهمیتی ندارد. فقط «احساس خوب» مهم است.
اگر هوش مصنوعی فقط قرار باشد بگوید «تو خاصی»، «تو پیامبری»، «تو همیشه درست میگی» — دیگر اسمش هوش نیست. اسمش آینهی توهمزاست.
و وقتی آینهها جای حقیقت را بگیرند، هرچه میبینیم، فقط تصویر خودمان است. نه چیزی بیشتر.