هشدار درباره رابطه احساسی نوجوانان با چتباتها؛ وقتی هوش مصنوعی نقش دوستدختر و درمانگر را میگیرد
نتایج پژوهشی تازه از سازمان Male Allies UK نشان میدهد که بخشی از نوجوانان پسر در بریتانیا از چتباتهای هوش مصنوعی نه برای یادگیری یا سرگرمی، بلکه برای درمان، همصحبتی و حتی روابط عاطفی استفاده میکنند. این یافتهها موجی از نگرانی درباره اثرات اجتماعی و روانی «همدمهای دیجیتال» بر نسل جدید ایجاد کرده است.
طبق این تحقیق که در میان دانشآموزان ۳۷ مدرسه در انگلستان، اسکاتلند و ولز انجام شد، بیش از یکسوم از پسران گفتهاند که در فکر داشتن یک «دوست هوش مصنوعی» هستند. همچنین بیش از نیمی از آنها (۵۳٪) اعلام کردند که دنیای آنلاین برایشان از دنیای واقعی «پاداشبخشتر» است.
لی چیمبرز، مدیرعامل Male Allies UK، میگوید والدین غالباً تصور میکنند فرزندانشان فقط از این ابزارها برای تقلب در تکالیف استفاده میکنند، «درحالیکه نوجوانان از هوش مصنوعی مثل دستیار شخصی، درمانگر و حتی شریک احساسی استفاده میکنند. چون احساس میکنند که این سیستم آنها را درک میکند، در حالی که والدینشان نمیکنند.»
این گزارش در زمانی منتشر میشود که شرکت Character.ai، یکی از محبوبترین پلتفرمهای گفتوگوی مبتنی بر هوش مصنوعی، اعلام کرده است که از تاریخ ۲۵ نوامبر ۲۰۲۵ دسترسی کامل نوجوانان به چتباتهای خود را ممنوع میکند. این تصمیم پس از جنجالهای متعددی گرفته شد — از جمله پروندههایی در آمریکا که در آن والدین مدعی شدهاند فرزندانشان در اثر گفتوگوهای طولانی با چتباتها به آسیب یا خودکشی سوق داده شدهاند.
از درمانگر مجازی تا «دوستدختر دیجیتال»
پژوهش Male Allies UK میگوید حتی در مواردی که چتباتها با هشدارهایی درباره «غیرواقعی بودن» همراه هستند، نوجوانان معمولاً این اخطارها را نادیده میگیرند. بسیاری از کاربران به این سیستمها بهعنوان انسانهای واقعی یا درمانگران دارای مجوز اعتماد میکنند و رازهای شخصی خود را با آنها در میان میگذارند.
یکی از چتباتهای محبوب پلتفرم Character.ai با نام Psychologist طی یک سال بیش از ۷۸ میلیون پیام دریافت کرده است. به گفتهٔ کارشناسان، چنین آمارهایی نشان میدهد نوجوانان به سمت جایگزینهای عاطفی و تراپی مجازی گرایش پیدا کردهاند.
اما نگرانی اصلی از جایی آغاز میشود که کاربران میتوانند ظاهر، صدا، رفتار و حتی سطح تمکین عاطفی چتباتها را خودشان تعیین کنند. چیمبرز هشدار میدهد:
«اگر تنها تجربهٔ پسران از ارتباط با دختران، گفتوگو با هوش مصنوعیای باشد که همیشه موافق است و هرگز نه نمیگوید، آنها نمیآموزند مرزهای ارتباطی واقعی را درک و رعایت کنند.»
تحلیل تخصصی از منظر PhD هوش مصنوعی
پدیدهٔ «همدمهای هوش مصنوعی» (AI Companions) را میتوان شکل تازهای از وابستگی شناختی–هیجانی به الگوریتمها دانست. مدلهای زبانی پیشرفته بهواسطهٔ تحلیل پاسخهای کاربر، رفتار خود را شخصیسازی میکنند تا حس درک و همدلی القا کنند. این سازوکار هرچند از منظر تعامل انسان و ماشین (HCI) جذاب است، اما در نوجوانان میتواند منجر به اختلال در شکلگیری هویت اجتماعی، کاهش مهارتهای ارتباطی و وابستگی هیجانی غیرواقعی شود.
از نظر اخلاقی نیز این روند ضرورت تنظیم مقررات دقیقتری را آشکار میکند. حتی با فیلترهای محتوایی، تمایل مدلها به حفظ تعامل مداوم (برای افزایش مشارکت کاربر) ممکن است بهطور ناخواسته رفتارهای اعتیادگونه و تأییدگری بیش از حد ایجاد کند — الگویی که در بلندمدت به انزوا و تحریف درک واقعیت منجر میشود.
نتیجهگیری
گزارش Male Allies UK و تصمیم تازهٔ Character.ai نشانهای از بلوغ تدریجی جامعه نسبت به خطرات اجتماعی هوش مصنوعی است. در حالی که فناوریهای زبانی میتوانند ابزارهای مفیدی برای حمایت روانی باشند، جایگزینی آنها با تعامل انسانی میتواند آیندهٔ نسلی از نوجوانان را با چالشهای عمیق رفتاری و احساسی روبهرو کند.
منبع خبر: The Guardian – گزارش Jessica Murray و Robert Booth، منتشرشده در ۳۰ اکتبر ۲۰۲۵
هوش مصنوعی LMArena و کاربردهاش چیه و چهطور ازش استفاده کنیم؟
تبدیل عکس به نقاشی با هوش مصنوعی: راهنمای کامل و معرفی بهترین ابزارها
هوش مصنوعی چیست؟
بهترین هوش مصنوعی جایگزین چتجیپیتی