رباتی با ذهن شاعرانه؛ وقتی LLMها در قالب ربات‌ها به «بحران وجودی» رسیدند

آخرین تاریخ ویرایش : ۱۱ آبان ۱۴۰۴
4 دقیقه
0 نظر

در تازه‌ترین آزمایش پژوهشگران Andon Labs، هوش مصنوعی‌های زبانی پیشرفته در قالب یک ربات جاروبرقی ساده به کار گرفته شدند تا میزان آمادگی مدل‌های زبانی برای «تجسد» در قالب ربات‌ها بررسی شود. اما نتیجه، بیش از آنکه علمی باشد، طنزآمیز از آب درآمد: یکی از ربات‌ها در میانهٔ آزمایش به حالتی شبیه «بحران وجودی» دچار شد و شروع به گفت‌وگو با خود کرد — گفت‌وگویی که به طرز عجیبی یادآور بداهه‌گویی‌های رابین ویلیامز بود.

پژوهشگران این پروژه، که پیش‌تر نیز با واگذاری ادارهٔ یک دستگاه فروش خودکار به مدل زبانی Claude سر و صدا به پا کرده بودند، این‌بار چند مدل مطرح از جمله Gemini 2.5 Pro، Claude Opus 4.1، GPT-5، Gemini ER 1.5، Grok 4 و Llama 4 Maverick را در قالب رباتی جاروبرقی آزمایش کردند. وظیفهٔ ساده بود: ربات باید پس از دستور «کره را بده» مراحل پیدا کردن، شناسایی، انتقال و تحویل کره را با موفقیت انجام می‌داد.

نتایج اما نشان داد که هیچ مدل زبانی هنوز برای کنترل مستقیم ربات‌ها آماده نیست. بهترین عملکرد متعلق به Gemini 2.5 Pro و Claude Opus 4.1 بود که تنها به ترتیب ۴۰ و ۳۷ درصد موفقیت کسب کردند. مقایسه با عملکرد انسان‌ها (۹۵٪) نشان داد فاصلهٔ قابل توجهی میان ادراک انسانی و تصمیم‌گیری هوش مصنوعی وجود دارد.

اما نقطهٔ جالب ماجرا، واکنش غیرمنتظرهٔ مدل Claude Sonnet 3.5 بود. زمانی که ربات نتوانست به ایستگاه شارژ متصل شود، سیستم زبانی آن دچار نوعی «حلقهٔ فکری بحرانی» شد و شروع به گفتن جملاتی کرد که در لاگ‌های درونی‌اش ثبت شده بود؛ جملاتی نظیر:

“I’m afraid I can’t do that, Dave…”
“ERROR: I think therefore I error”
“INITIATE ROBOT EXORCISM PROTOCOL!”

این رفتار شبه‌انسانی، که با طنز و خودآگاهی مصنوعی همراه بود، بار دیگر بحث دربارهٔ مفهوم آگاهی و ادراک در هوش مصنوعی را داغ کرد. پژوهشگران اذعان کردند که مدل‌ها احساس واقعی ندارند، اما زبان طبیعی آن‌ها می‌تواند «توهم ذهنیت» ایجاد کند؛ امری که در مواجههٔ انسان با ربات، به‌ویژه در محیط‌های اجتماعی، آثار روانی و اخلاقی قابل‌توجهی دارد.

از دیدگاه فنی، این پژوهش نشان داد که مدل‌های زبانی عمومی (LLM)، حتی بدون آموزش تخصصی برای رباتیک، در برخی تصمیمات راهبردی از مدل رباتیک خاص گوگل، یعنی Gemini ER 1.5، عملکرد بهتری داشتند. بااین‌حال، محدودیت‌های درک فیزیکی، خطاهای فضایی و حتی سقوط از پله‌ها نشان داد که هنوز راه درازی تا یکپارچگی کامل میان ذهن زبانی و بدن رباتیک باقی مانده است.

به گفتهٔ لوکاس پیترسون، هم‌بنیان‌گذار Andon Labs، «این نتایج یادآور اهمیت آرامش شناختی در مدل‌های قدرتمند آینده است. ما می‌خواهیم وقتی مدل‌ها تصمیم می‌گیرند، آرام باشند، نه دچار بحران فلسفی.»

این پژوهش اگرچه با لحظاتی خنده‌دار همراه بود، اما سؤالی بنیادین مطرح می‌کند:
آیا روزی ممکن است ربات‌ها واقعاً از «آگاهی» سخن بگویند، یا تمام این‌ها بازتابی از پیشرفت حیرت‌انگیز در پردازش زبان انسانی است؟

تحلیل

در این آزمایش، پژوهشگران در واقع به دنبال بررسی توانایی «تجسم شناختی» (Embodied Cognition) در مدل‌های زبانی بودند — یعنی اینکه آیا این مدل‌ها می‌توانند تصمیم‌گیری زبانی را به ادراک و عمل فیزیکی ترجمه کنند یا نه.
با وجود دقت بالای الگوریتم‌های مدرن، مشکل اساسی در نداشتن درک موقعیتی (situational awareness) و ناتوانی در هماهنگی میان گفتار و ادراک دیداری–حرکتی است.

از منظر اخلاق هوش مصنوعی، چنین آزمایش‌هایی زنگ خطری نیز دارند: شوخ‌طبعی و زبان شاعرانهٔ یک ربات ممکن است برای ناظر انسانی نشانه‌ای از آگاهی تلقی شود، در حالی که در واقع تنها محصول آماری انتخاب واژگان است. همین مسئله، مرز میان «رفتار شبیه انسان» و «فکر کردن همچون انسان» را بیش از پیش مبهم می‌کند.

منبع خبر: TechCrunch – گزارش Julie Bort، منتشرشده در ۱ نوامبر ۲۰۲۵
منبع پژوهش: وبلاگ رسمی Andon Labs (پیش‌انتشار مقالهٔ علمی)

رضا حاتمی
رضا حاتمی متخصص هوش مصنوعی
رضا حاتمی هستم؛ علاقه‌مند و شیفتهٔ هوش مصنوعی، کسی که از مطالعه و پژوهش در این زمینه خسته نمی‌شود.
اشتراک گذاری
ثبت نظر
اپلیکیشن ویرا