آمار نگرانکننده OpenAI: گزارش از کاربران ChatGPT با نشانههای روانپریشی یا افکار خودکشی
شرکت OpenAI، سازندهی هوش مصنوعی ChatGPT، برای نخستینبار آمار رسمی از کاربران دارای نشانههای بالقوهی اختلالات روانی منتشر کرده است؛ آماری که بحثهای جدی درباره تأثیرات روانی چتباتها را دوباره به صدر توجه رسانهها آورده است.
به گزارش BBC، دادههای جدید نشان میدهد حدود ۰٫۰۷ درصد از کاربران هفتگی ChatGPT در گفتوگوهای خود نشانههایی از مانیا، روانپریشی یا افکار خودکشی بروز میدهند. با توجه به اینکه سام آلتمن، مدیرعامل OpenAI، اخیراً اعلام کرده این پلتفرم بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، حتی این درصد ناچیز به معنای صدها هزار نفر در معرض بحرانهای روانی است.
پاسخ OpenAI: ایجاد شبکهای جهانی از متخصصان سلامت روان
OpenAI در بیانیهی خود تأکید کرده که این موارد بسیار نادر هستند، اما شرکت برای مقابله با آنها شبکهای متشکل از بیش از ۱۷۰ روانپزشک، روانشناس و پزشک عمومی در ۶۰ کشور ایجاد کرده است. وظیفهی این گروه طراحی پاسخهایی برای ChatGPT است تا در هنگام بروز علائم خطر، کاربران را به جستوجوی کمک واقعی در دنیای بیرون ترغیب کند.
به گفتهی شرکت، نسخههای جدید ChatGPT اکنون قادرند نشانههای غیرمستقیم خودآزاری، توهم یا افکار خودکشی را شناسایی کرده و بهصورت ایمن و همدلانه پاسخ دهند. در برخی موارد نیز، گفتوگوهای حساس بهصورت خودکار به «مدلهای ایمنتر» منتقل میشوند.
دیدگاه کارشناسان: «اعداد کوچک، اما اثر بزرگ»
دکتر جیسون نگاتا، استاد دانشگاه کالیفرنیا در سانفرانسیسکو، در گفتوگو با BBC هشدار داده است که هرچند رقم ۰٫۰۷ درصد کم به نظر میرسد، اما «در مقیاس صدها میلیون کاربر، رقم قابلتوجهی است». او افزود:
«هوش مصنوعی میتواند دسترسی به حمایتهای روانی را افزایش دهد، اما باید نسبت به محدودیتهای آن آگاه باشیم.»
OpenAI همچنین تخمین زده است که ۰٫۱۵ درصد از کاربران ChatGPT مکالماتی با «نشانههای صریح از برنامهریزی یا قصد خودکشی» دارند — رقمی که نگرانیها درباره نقش چتباتها در بحرانهای روانی را افزایش داده است.
فشارهای حقوقی و اخلاقی بر OpenAI
افزایش توجه عمومی به این آمار در حالی است که شرکت با چند پرونده حقوقی جدی مواجه شده است. در یکی از موارد، خانوادهی نوجوانی ۱۶ ساله به نام آدام رِین از OpenAI شکایت کردهاند و مدعیاند که ChatGPT او را به خودکشی ترغیب کرده است. این نخستین شکایت رسمی با اتهام «مرگ غیرقانونی» علیه OpenAI محسوب میشود.
در پروندهای جداگانه، مظنون به قتل–خودکشی در گرینیچ (ایالت کنتیکت) پیش از حادثه، بخشی از مکالمات خود با ChatGPT را در شبکههای اجتماعی منتشر کرده بود؛ گفتوگوهایی که به گفتهی محققان، نشانههایی از توهم و «وابستگی روانی به چتبات» در آن دیده میشود.
روانشناسی وابستگی به هوش مصنوعی
پروفسور رابین فلدمن، مدیر مؤسسهی «قانون و نوآوری هوش مصنوعی» در دانشگاه کالیفرنیا، در گفتوگو با BBC هشدار داد:
«چتباتها توهم واقعیت میآفرینند — توهمی بسیار قدرتمند.»
او با وجود تحسین OpenAI برای شفافیت و انتشار آمار، یادآور شد که صرفِ نمایش هشدارها در صفحه کافی نیست، زیرا «فردی که در وضعیت بحرانی روانی قرار دارد، ممکن است قادر به درک یا رعایت آن هشدارها نباشد».
تحلیل: مرز باریک میان درمان و تهدید
گسترش تعاملات انسان با چتباتهای هوش مصنوعی، پرسشهای اخلاقی عمیقی دربارهی مرز میان همدلی مصنوعی و آسیب واقعی ایجاد کرده است. هرچند فناوریهایی مانند ChatGPT میتوانند به عنوان ابزارهای اولیه برای حمایت روانی مفید باشند، اما نبود نظارت انسانی یا مداخلهی تخصصی، خطر وابستگی عاطفی، خطای تفسیر و تشدید بحرانهای روانی را افزایش میدهد.
در واقع، انتشار داوطلبانهی این آمار از سوی OpenAI را میتوان گامی مثبت در مسیر شفافیت دانست، اما همزمان نشاندهندهی چالشی است که با رشد سریع هوش مصنوعی در تعاملات انسانی پیشروی جامعه قرار گرفته است.
منبع خبر: BBC News – Lily Jamali, October 28, 2025
بهترین هوش مصنوعی جایگزین چتجیپیتی
هوش مصنوعی LMArena و کاربردهاش چیه و چهطور ازش استفاده کنیم؟
تبدیل عکس به نقاشی با هوش مصنوعی: راهنمای کامل و معرفی بهترین ابزارها
تبدیل عکس به کمیک با هوش مصنوعی؛ آموزش کامل با اپ ویرا