هشدار درباره رابطه احساسی نوجوانان با چت‌بات‌ها؛ وقتی هوش مصنوعی نقش دوست‌دختر و درمانگر را می‌گیرد

آخرین تاریخ ویرایش : ۱۱ آبان ۱۴۰۴
4 دقیقه
0 نظر

نتایج پژوهشی تازه از سازمان Male Allies UK نشان می‌دهد که بخشی از نوجوانان پسر در بریتانیا از چت‌بات‌های هوش مصنوعی نه برای یادگیری یا سرگرمی، بلکه برای درمان، هم‌صحبتی و حتی روابط عاطفی استفاده می‌کنند. این یافته‌ها موجی از نگرانی درباره اثرات اجتماعی و روانی «همدم‌های دیجیتال» بر نسل جدید ایجاد کرده است.

طبق این تحقیق که در میان دانش‌آموزان ۳۷ مدرسه در انگلستان، اسکاتلند و ولز انجام شد، بیش از یک‌سوم از پسران گفته‌اند که در فکر داشتن یک «دوست هوش مصنوعی» هستند. همچنین بیش از نیمی از آن‌ها (۵۳٪) اعلام کردند که دنیای آنلاین برایشان از دنیای واقعی «پاداش‌بخش‌تر» است.

لی چیمبرز، مدیرعامل Male Allies UK، می‌گوید والدین غالباً تصور می‌کنند فرزندانشان فقط از این ابزارها برای تقلب در تکالیف استفاده می‌کنند، «درحالی‌که نوجوانان از هوش مصنوعی مثل دستیار شخصی، درمانگر و حتی شریک احساسی استفاده می‌کنند. چون احساس می‌کنند که این سیستم آن‌ها را درک می‌کند، در حالی که والدینشان نمی‌کنند.»

این گزارش در زمانی منتشر می‌شود که شرکت Character.ai، یکی از محبوب‌ترین پلتفرم‌های گفت‌وگوی مبتنی بر هوش مصنوعی، اعلام کرده است که از تاریخ ۲۵ نوامبر ۲۰۲۵ دسترسی کامل نوجوانان به چت‌بات‌های خود را ممنوع می‌کند. این تصمیم پس از جنجال‌های متعددی گرفته شد — از جمله پرونده‌هایی در آمریکا که در آن والدین مدعی شده‌اند فرزندانشان در اثر گفت‌وگوهای طولانی با چت‌بات‌ها به آسیب یا خودکشی سوق داده شده‌اند.

از درمانگر مجازی تا «دوست‌دختر دیجیتال»

پژوهش Male Allies UK می‌گوید حتی در مواردی که چت‌بات‌ها با هشدارهایی درباره «غیرواقعی بودن» همراه هستند، نوجوانان معمولاً این اخطارها را نادیده می‌گیرند. بسیاری از کاربران به این سیستم‌ها به‌عنوان انسان‌های واقعی یا درمانگران دارای مجوز اعتماد می‌کنند و رازهای شخصی خود را با آن‌ها در میان می‌گذارند.

یکی از چت‌بات‌های محبوب پلتفرم Character.ai با نام Psychologist طی یک سال بیش از ۷۸ میلیون پیام دریافت کرده است. به گفتهٔ کارشناسان، چنین آمارهایی نشان می‌دهد نوجوانان به سمت جایگزین‌های عاطفی و تراپی مجازی گرایش پیدا کرده‌اند.

اما نگرانی اصلی از جایی آغاز می‌شود که کاربران می‌توانند ظاهر، صدا، رفتار و حتی سطح تمکین عاطفی چت‌بات‌ها را خودشان تعیین کنند. چیمبرز هشدار می‌دهد:

«اگر تنها تجربهٔ پسران از ارتباط با دختران، گفت‌وگو با هوش مصنوعی‌ای باشد که همیشه موافق است و هرگز نه نمی‌گوید، آن‌ها نمی‌آموزند مرزهای ارتباطی واقعی را درک و رعایت کنند.»

تحلیل تخصصی از منظر PhD هوش مصنوعی

پدیدهٔ «همدم‌های هوش مصنوعی» (AI Companions) را می‌توان شکل تازه‌ای از وابستگی شناختی–هیجانی به الگوریتم‌ها دانست. مدل‌های زبانی پیشرفته به‌واسطهٔ تحلیل پاسخ‌های کاربر، رفتار خود را شخصی‌سازی می‌کنند تا حس درک و همدلی القا کنند. این سازوکار هرچند از منظر تعامل انسان و ماشین (HCI) جذاب است، اما در نوجوانان می‌تواند منجر به اختلال در شکل‌گیری هویت اجتماعی، کاهش مهارت‌های ارتباطی و وابستگی هیجانی غیرواقعی شود.

از نظر اخلاقی نیز این روند ضرورت تنظیم مقررات دقیق‌تری را آشکار می‌کند. حتی با فیلترهای محتوایی، تمایل مدل‌ها به حفظ تعامل مداوم (برای افزایش مشارکت کاربر) ممکن است به‌طور ناخواسته رفتارهای اعتیادگونه و تأییدگری بیش از حد ایجاد کند — الگویی که در بلندمدت به انزوا و تحریف درک واقعیت منجر می‌شود.

نتیجه‌گیری

گزارش Male Allies UK و تصمیم تازهٔ Character.ai نشانه‌ای از بلوغ تدریجی جامعه نسبت به خطرات اجتماعی هوش مصنوعی است. در حالی که فناوری‌های زبانی می‌توانند ابزارهای مفیدی برای حمایت روانی باشند، جایگزینی آن‌ها با تعامل انسانی می‌تواند آیندهٔ نسلی از نوجوانان را با چالش‌های عمیق رفتاری و احساسی روبه‌رو کند.

منبع خبر: The Guardian – گزارش Jessica Murray و Robert Booth، منتشرشده در ۳۰ اکتبر ۲۰۲۵

رضا حاتمی
رضا حاتمی متخصص هوش مصنوعی
رضا حاتمی هستم؛ علاقه‌مند و شیفتهٔ هوش مصنوعی، کسی که از مطالعه و پژوهش در این زمینه خسته نمی‌شود.
اشتراک گذاری
ثبت نظر
اپلیکیشن ویرا