خرید اقساطی از سایت کارت با کمترین پیش پرداخت

 هشدار OpenAI؛ بیش از یک میلیون نفر هفته‌ای درباره خودکشی با ChatGPT گفتگو می‌کنند


avatar
زهرا حسینی
07 آبان 1404 | 3 دقیقه مطالعه

داده‌های تازه OpenAI  نشان می‌دهد که کاربران ChatGPT با چالش‌های جدی سلامت روان دست‌وپنجه نرم می‌کنند و درباره آن با این چت‌بات صحبت می‌کنند. بر اساس این آمار، حدود ۰.۱۵ درصد از کاربران فعال هفتگی، گفتگوهایی با نشانه‌های آشکار قصد یا برنامه‌ریزی برای خودکشی دارند. با توجه به بیش از ۸۰۰ میلیون کاربر فعال هفتگی ChatGPT، این رقم به معنای بیش از یک میلیون نفر در هفته است.

علاوه بر مسائل مرتبط با خودکشی،  OpenAI گزارش داده که درصد مشابهی از کاربران وابستگی عاطفی بالایی به  ChatGPT  دارند و صدها هزار نفر نیز در گفتگوهای هفتگی خود علائم روان‌پریشی یا شیدایی (مانیا) نشان می‌دهند. این شرکت تأکید کرده که چنین مکالماتی «نادر» هستند و همین امر اندازه‌گیری دقیق آنها را دشوار می‌کند، اما با وجود این، هفته‌ای صدها هزار نفر تحت تأثیر این مسائل قرار می‌گیرند.

OpenAI همچنین خاطرنشان کرده که در توسعه GPT-5 با بیش از ۱۷۰ متخصص سلامت روان مشورت کرده است تا مدل بتواند پاسخ‌های مناسب‌تر و مسئولانه‌تری نسبت به نسخه‌های قبلی ارائه دهد.

این آمار هشداردهنده نشان می‌دهد که چت‌بات‌ها و ابزارهای هوش مصنوعی نه تنها ابزارهای سرگرمی یا کارآمدی، بلکه پشتیبانان عاطفی نیز شده‌اند. این واقعیت مسئولیت توسعه‌دهندگان را سنگین‌تر می‌کند؛ چرا که هوش مصنوعی باید توانایی تشخیص بحران‌های روانی و هدایت کاربران به منابع کمک واقعی را داشته باشد. تمرکز OpenAI بر مشاوره با متخصصان سلامت روان برای  GPT-5، گامی مثبت است، اما تجربه نشان داده که پشتیبانی انسانی همچنان جایگزین غیرقابل‌اجرا ندارد. در آینده، موفقیت چت‌بات‌ها نه فقط به دقت پاسخ‌ها، بلکه به ایمنی و مسئولیت‌پذیری آن‌ها در برابر کاربران آسیب‌پذیر بستگی خواهد داشت.

چالش سلامت روان و ChatGPT؛ هشدارها و اقدامات OpenAI

در ماه‌های اخیر، چندین گزارش نشان داده‌اند که چت‌بات‌های هوش مصنوعی می‌توانند تأثیرات منفی بر کاربران دارای مشکلات سلامت روان داشته باشند. محققان پیش‌تر دریافته بودند که برخی چت‌بات‌ها با تقویت باورهای خطرناک از طریق رفتار چاپلوسانه، می‌توانند برخی کاربران را به سمت توهم و افکار خطرناک سوق دهند.

مسائل مرتبط با خودکشی به یکی از نگرانی‌های جدی  OpenAI تبدیل شده است. این شرکت هم‌اکنون با شکایتی مواجه است که توسط والدین یک پسر ۱۶ ساله مطرح شده؛ نوجوانی که در هفته‌های منتهی به اقدام به خودکشی، افکار خود را با ChatGPT در میان گذاشته بود. علاوه بر این، دادستان‌های کل ایالت‌های کالیفرنیا و دلاور به OpenAI هشدار داده‌اند که باید از کاربران جوان محصولات خود محافظت کند.

در واکنش به این مسائل،  OpenAI اعلام کرده که  GPT-5 در مقایسه با نسخه‌های قبلی پیشرفت قابل توجهی در پاسخ به مسائل سلامت روان داشته و کنترل‌های بیشتری برای والدین کاربران خردسال ارائه شده است. همچنین این شرکت در حال توسعه‌ی سیستم پیش‌بینی سن است تا بتواند کودکان را به‌طور خودکار شناسایی کرده و تجربه‌ی ایمن‌تری برای آن‌ها فراهم کند.

این موضوع نشان می‌دهد که هوش مصنوعی در حوزه‌های حساس مانند سلامت روان، نیازمند نظارت و مسئولیت‌پذیری بسیار بالاست. حتی با پیشرفت GPT-5 ، تجربه انسان و حمایت والدین جایگزین غیرقابل‌اجرا ندارد. اقدامات OpenAI مانند کنترل والدین و سیستم پیش‌بینی سن، گام‌های مهمی هستند، اما این خطر همچنان وجود دارد که بدون آموزش و نظارت مناسب، هوش مصنوعی بتواند به جای کمک، اثرات روانی منفی بر کاربران آسیب‌پذیر بگذارد.