آمار نگران‌کننده OpenAI: گزارش از کاربران ChatGPT با نشانه‌های روان‌پریشی یا افکار خودکشی

آخرین تاریخ ویرایش : ۱۰ آبان ۱۴۰۴
4 دقیقه
0 نظر

شرکت OpenAI، سازنده‌ی هوش مصنوعی ChatGPT، برای نخستین‌بار آمار رسمی از کاربران دارای نشانه‌های بالقوه‌ی اختلالات روانی منتشر کرده است؛ آماری که بحث‌های جدی درباره تأثیرات روانی چت‌بات‌ها را دوباره به صدر توجه رسانه‌ها آورده است.

به گزارش BBC، داده‌های جدید نشان می‌دهد حدود ۰٫۰۷ درصد از کاربران هفتگی ChatGPT در گفت‌وگوهای خود نشانه‌هایی از مانیا، روان‌پریشی یا افکار خودکشی بروز می‌دهند. با توجه به اینکه سام آلتمن، مدیرعامل OpenAI، اخیراً اعلام کرده این پلتفرم بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، حتی این درصد ناچیز به معنای صدها هزار نفر در معرض بحران‌های روانی است.

پاسخ OpenAI: ایجاد شبکه‌ای جهانی از متخصصان سلامت روان

OpenAI در بیانیه‌ی خود تأکید کرده که این موارد بسیار نادر هستند، اما شرکت برای مقابله با آن‌ها شبکه‌ای متشکل از بیش از ۱۷۰ روان‌پزشک، روان‌شناس و پزشک عمومی در ۶۰ کشور ایجاد کرده است. وظیفه‌ی این گروه طراحی پاسخ‌هایی برای ChatGPT است تا در هنگام بروز علائم خطر، کاربران را به جست‌وجوی کمک واقعی در دنیای بیرون ترغیب کند.

به گفته‌ی شرکت، نسخه‌های جدید ChatGPT اکنون قادرند نشانه‌های غیرمستقیم خودآزاری، توهم یا افکار خودکشی را شناسایی کرده و به‌صورت ایمن و همدلانه پاسخ دهند. در برخی موارد نیز، گفت‌وگوهای حساس به‌صورت خودکار به «مدل‌های ایمن‌تر» منتقل می‌شوند.

دیدگاه کارشناسان: «اعداد کوچک، اما اثر بزرگ»

دکتر جیسون نگاتا، استاد دانشگاه کالیفرنیا در سان‌فرانسیسکو، در گفت‌وگو با BBC هشدار داده است که هرچند رقم ۰٫۰۷ درصد کم به نظر می‌رسد، اما «در مقیاس صدها میلیون کاربر، رقم قابل‌توجهی است». او افزود:

«هوش مصنوعی می‌تواند دسترسی به حمایت‌های روانی را افزایش دهد، اما باید نسبت به محدودیت‌های آن آگاه باشیم.»

OpenAI همچنین تخمین زده است که ۰٫۱۵ درصد از کاربران ChatGPT مکالماتی با «نشانه‌های صریح از برنامه‌ریزی یا قصد خودکشی» دارند — رقمی که نگرانی‌ها درباره نقش چت‌بات‌ها در بحران‌های روانی را افزایش داده است.

فشارهای حقوقی و اخلاقی بر OpenAI

افزایش توجه عمومی به این آمار در حالی است که شرکت با چند پرونده حقوقی جدی مواجه شده است. در یکی از موارد، خانواده‌ی نوجوانی ۱۶ ساله به نام آدام رِین از OpenAI شکایت کرده‌اند و مدعی‌اند که ChatGPT او را به خودکشی ترغیب کرده است. این نخستین شکایت رسمی با اتهام «مرگ غیرقانونی» علیه OpenAI محسوب می‌شود.

در پرونده‌ای جداگانه، مظنون به قتل–خودکشی در گرینیچ (ایالت کنتیکت) پیش از حادثه، بخشی از مکالمات خود با ChatGPT را در شبکه‌های اجتماعی منتشر کرده بود؛ گفت‌وگوهایی که به گفته‌ی محققان، نشانه‌هایی از توهم و «وابستگی روانی به چت‌بات» در آن دیده می‌شود.

روان‌شناسی وابستگی به هوش مصنوعی

پروفسور رابین فلدمن، مدیر مؤسسه‌ی «قانون و نوآوری هوش مصنوعی» در دانشگاه کالیفرنیا، در گفت‌وگو با BBC هشدار داد:

«چت‌بات‌ها توهم واقعیت می‌آفرینند — توهمی بسیار قدرتمند.»

او با وجود تحسین OpenAI برای شفافیت و انتشار آمار، یادآور شد که صرفِ نمایش هشدارها در صفحه کافی نیست، زیرا «فردی که در وضعیت بحرانی روانی قرار دارد، ممکن است قادر به درک یا رعایت آن هشدارها نباشد».

تحلیل: مرز باریک میان درمان و تهدید

گسترش تعاملات انسان با چت‌بات‌های هوش مصنوعی، پرسش‌های اخلاقی عمیقی درباره‌ی مرز میان همدلی مصنوعی و آسیب واقعی ایجاد کرده است. هرچند فناوری‌هایی مانند ChatGPT می‌توانند به عنوان ابزارهای اولیه برای حمایت روانی مفید باشند، اما نبود نظارت انسانی یا مداخله‌ی تخصصی، خطر وابستگی عاطفی، خطای تفسیر و تشدید بحران‌های روانی را افزایش می‌دهد.

در واقع، انتشار داوطلبانه‌ی این آمار از سوی OpenAI را می‌توان گامی مثبت در مسیر شفافیت دانست، اما هم‌زمان نشان‌دهنده‌ی چالشی است که با رشد سریع هوش مصنوعی در تعاملات انسانی پیش‌روی جامعه قرار گرفته است.

منبع خبر: BBC News – Lily Jamali, October 28, 2025

رضا حاتمی
رضا حاتمی متخصص هوش مصنوعی
رضا حاتمی هستم؛ علاقه‌مند و شیفتهٔ هوش مصنوعی، کسی که از مطالعه و پژوهش در این زمینه خسته نمی‌شود.
اشتراک گذاری
ثبت نظر
اپلیکیشن ویرا