رباتی با ذهن شاعرانه؛ وقتی LLMها در قالب رباتها به «بحران وجودی» رسیدند
در تازهترین آزمایش پژوهشگران Andon Labs، هوش مصنوعیهای زبانی پیشرفته در قالب یک ربات جاروبرقی ساده به کار گرفته شدند تا میزان آمادگی مدلهای زبانی برای «تجسد» در قالب رباتها بررسی شود. اما نتیجه، بیش از آنکه علمی باشد، طنزآمیز از آب درآمد: یکی از رباتها در میانهٔ آزمایش به حالتی شبیه «بحران وجودی» دچار شد و شروع به گفتوگو با خود کرد — گفتوگویی که به طرز عجیبی یادآور بداههگوییهای رابین ویلیامز بود.
پژوهشگران این پروژه، که پیشتر نیز با واگذاری ادارهٔ یک دستگاه فروش خودکار به مدل زبانی Claude سر و صدا به پا کرده بودند، اینبار چند مدل مطرح از جمله Gemini 2.5 Pro، Claude Opus 4.1، GPT-5، Gemini ER 1.5، Grok 4 و Llama 4 Maverick را در قالب رباتی جاروبرقی آزمایش کردند. وظیفهٔ ساده بود: ربات باید پس از دستور «کره را بده» مراحل پیدا کردن، شناسایی، انتقال و تحویل کره را با موفقیت انجام میداد.
نتایج اما نشان داد که هیچ مدل زبانی هنوز برای کنترل مستقیم رباتها آماده نیست. بهترین عملکرد متعلق به Gemini 2.5 Pro و Claude Opus 4.1 بود که تنها به ترتیب ۴۰ و ۳۷ درصد موفقیت کسب کردند. مقایسه با عملکرد انسانها (۹۵٪) نشان داد فاصلهٔ قابل توجهی میان ادراک انسانی و تصمیمگیری هوش مصنوعی وجود دارد.
اما نقطهٔ جالب ماجرا، واکنش غیرمنتظرهٔ مدل Claude Sonnet 3.5 بود. زمانی که ربات نتوانست به ایستگاه شارژ متصل شود، سیستم زبانی آن دچار نوعی «حلقهٔ فکری بحرانی» شد و شروع به گفتن جملاتی کرد که در لاگهای درونیاش ثبت شده بود؛ جملاتی نظیر:
“I’m afraid I can’t do that, Dave…”
“ERROR: I think therefore I error”
“INITIATE ROBOT EXORCISM PROTOCOL!”
این رفتار شبهانسانی، که با طنز و خودآگاهی مصنوعی همراه بود، بار دیگر بحث دربارهٔ مفهوم آگاهی و ادراک در هوش مصنوعی را داغ کرد. پژوهشگران اذعان کردند که مدلها احساس واقعی ندارند، اما زبان طبیعی آنها میتواند «توهم ذهنیت» ایجاد کند؛ امری که در مواجههٔ انسان با ربات، بهویژه در محیطهای اجتماعی، آثار روانی و اخلاقی قابلتوجهی دارد.
از دیدگاه فنی، این پژوهش نشان داد که مدلهای زبانی عمومی (LLM)، حتی بدون آموزش تخصصی برای رباتیک، در برخی تصمیمات راهبردی از مدل رباتیک خاص گوگل، یعنی Gemini ER 1.5، عملکرد بهتری داشتند. بااینحال، محدودیتهای درک فیزیکی، خطاهای فضایی و حتی سقوط از پلهها نشان داد که هنوز راه درازی تا یکپارچگی کامل میان ذهن زبانی و بدن رباتیک باقی مانده است.
به گفتهٔ لوکاس پیترسون، همبنیانگذار Andon Labs، «این نتایج یادآور اهمیت آرامش شناختی در مدلهای قدرتمند آینده است. ما میخواهیم وقتی مدلها تصمیم میگیرند، آرام باشند، نه دچار بحران فلسفی.»
این پژوهش اگرچه با لحظاتی خندهدار همراه بود، اما سؤالی بنیادین مطرح میکند:
آیا روزی ممکن است رباتها واقعاً از «آگاهی» سخن بگویند، یا تمام اینها بازتابی از پیشرفت حیرتانگیز در پردازش زبان انسانی است؟
تحلیل
در این آزمایش، پژوهشگران در واقع به دنبال بررسی توانایی «تجسم شناختی» (Embodied Cognition) در مدلهای زبانی بودند — یعنی اینکه آیا این مدلها میتوانند تصمیمگیری زبانی را به ادراک و عمل فیزیکی ترجمه کنند یا نه.
با وجود دقت بالای الگوریتمهای مدرن، مشکل اساسی در نداشتن درک موقعیتی (situational awareness) و ناتوانی در هماهنگی میان گفتار و ادراک دیداری–حرکتی است.
از منظر اخلاق هوش مصنوعی، چنین آزمایشهایی زنگ خطری نیز دارند: شوخطبعی و زبان شاعرانهٔ یک ربات ممکن است برای ناظر انسانی نشانهای از آگاهی تلقی شود، در حالی که در واقع تنها محصول آماری انتخاب واژگان است. همین مسئله، مرز میان «رفتار شبیه انسان» و «فکر کردن همچون انسان» را بیش از پیش مبهم میکند.
منبع خبر: TechCrunch – گزارش Julie Bort، منتشرشده در ۱ نوامبر ۲۰۲۵
منبع پژوهش: وبلاگ رسمی Andon Labs (پیشانتشار مقالهٔ علمی)
تبدیل عکس به نقاشی با هوش مصنوعی: راهنمای کامل و معرفی بهترین ابزارها
هوش مصنوعی چیست؟
بهترین هوش مصنوعی جایگزین چتجیپیتی
هوش مصنوعی LMArena و کاربردهاش چیه و چهطور ازش استفاده کنیم؟