دادههای تازه OpenAI نشان میدهد که کاربران ChatGPT با چالشهای جدی سلامت روان دستوپنجه نرم میکنند و درباره آن با این چتبات صحبت میکنند. بر اساس این آمار، حدود ۰.۱۵ درصد از کاربران فعال هفتگی، گفتگوهایی با نشانههای آشکار قصد یا برنامهریزی برای خودکشی دارند. با توجه به بیش از ۸۰۰ میلیون کاربر فعال هفتگی ChatGPT، این رقم به معنای بیش از یک میلیون نفر در هفته است.
علاوه بر مسائل مرتبط با خودکشی، OpenAI گزارش داده که درصد مشابهی از کاربران وابستگی عاطفی بالایی به ChatGPT دارند و صدها هزار نفر نیز در گفتگوهای هفتگی خود علائم روانپریشی یا شیدایی (مانیا) نشان میدهند. این شرکت تأکید کرده که چنین مکالماتی «نادر» هستند و همین امر اندازهگیری دقیق آنها را دشوار میکند، اما با وجود این، هفتهای صدها هزار نفر تحت تأثیر این مسائل قرار میگیرند.
OpenAI همچنین خاطرنشان کرده که در توسعه GPT-5 با بیش از ۱۷۰ متخصص سلامت روان مشورت کرده است تا مدل بتواند پاسخهای مناسبتر و مسئولانهتری نسبت به نسخههای قبلی ارائه دهد.
این آمار هشداردهنده نشان میدهد که چتباتها و ابزارهای هوش مصنوعی نه تنها ابزارهای سرگرمی یا کارآمدی، بلکه پشتیبانان عاطفی نیز شدهاند. این واقعیت مسئولیت توسعهدهندگان را سنگینتر میکند؛ چرا که هوش مصنوعی باید توانایی تشخیص بحرانهای روانی و هدایت کاربران به منابع کمک واقعی را داشته باشد. تمرکز OpenAI بر مشاوره با متخصصان سلامت روان برای GPT-5، گامی مثبت است، اما تجربه نشان داده که پشتیبانی انسانی همچنان جایگزین غیرقابلاجرا ندارد. در آینده، موفقیت چتباتها نه فقط به دقت پاسخها، بلکه به ایمنی و مسئولیتپذیری آنها در برابر کاربران آسیبپذیر بستگی خواهد داشت.
چالش سلامت روان و ChatGPT؛ هشدارها و اقدامات OpenAI
در ماههای اخیر، چندین گزارش نشان دادهاند که چتباتهای هوش مصنوعی میتوانند تأثیرات منفی بر کاربران دارای مشکلات سلامت روان داشته باشند. محققان پیشتر دریافته بودند که برخی چتباتها با تقویت باورهای خطرناک از طریق رفتار چاپلوسانه، میتوانند برخی کاربران را به سمت توهم و افکار خطرناک سوق دهند.
مسائل مرتبط با خودکشی به یکی از نگرانیهای جدی OpenAI تبدیل شده است. این شرکت هماکنون با شکایتی مواجه است که توسط والدین یک پسر ۱۶ ساله مطرح شده؛ نوجوانی که در هفتههای منتهی به اقدام به خودکشی، افکار خود را با ChatGPT در میان گذاشته بود. علاوه بر این، دادستانهای کل ایالتهای کالیفرنیا و دلاور به OpenAI هشدار دادهاند که باید از کاربران جوان محصولات خود محافظت کند.
در واکنش به این مسائل، OpenAI اعلام کرده که GPT-5 در مقایسه با نسخههای قبلی پیشرفت قابل توجهی در پاسخ به مسائل سلامت روان داشته و کنترلهای بیشتری برای والدین کاربران خردسال ارائه شده است. همچنین این شرکت در حال توسعهی سیستم پیشبینی سن است تا بتواند کودکان را بهطور خودکار شناسایی کرده و تجربهی ایمنتری برای آنها فراهم کند.
این موضوع نشان میدهد که هوش مصنوعی در حوزههای حساس مانند سلامت روان، نیازمند نظارت و مسئولیتپذیری بسیار بالاست. حتی با پیشرفت GPT-5 ، تجربه انسان و حمایت والدین جایگزین غیرقابلاجرا ندارد. اقدامات OpenAI مانند کنترل والدین و سیستم پیشبینی سن، گامهای مهمی هستند، اما این خطر همچنان وجود دارد که بدون آموزش و نظارت مناسب، هوش مصنوعی بتواند به جای کمک، اثرات روانی منفی بر کاربران آسیبپذیر بگذارد.
