ابزارهای هوش مصنوعی مانند ChatGPT طی سالهای اخیر با انتقادهای جدی مواجه شدهاند؛ از تولید اطلاعات بیاساس گرفته تا آثار منفی بالقوه بر سلامت روان کاربران. اکنون گروهی از دادستانهای کل آمریکا با ارسال نامهای رسمی به بزرگترین شرکتهای فعال در حوزه هوش مصنوعی، از جمله مایکروسافت، OpenAI و گوگل، نسبت به ادامه تولید پاسخهای نادرست یا گمراهکننده هشدار دادهاند. سایر شرکتهای مطرح مانند آنتروپیک، اپل، متا، Perplexity AI و xAI نیز در این نامه مورد خطاب قرار گرفتهاند.
در این نامه، دادستانها خواستار ایجاد رویکردهای حفاظتی داخلی شفاف و قابل بازرسی شدهاند تا نشانههای تولید محتوای بیاساس یا رفتارهای چاپلوسانه توسط مدلها شناسایی و اصلاح شوند. همچنین شرکتها موظفند فرآیندهایی برای گزارشدهی سریع حوادث احتمالی ایجاد کنند تا کاربران هنگام مواجهه با خروجیهای آسیبزا از نظر روانی به سرعت مطلع شوند. از سوی دیگر، پیشنهاد شده نهادهای مستقل مانند گروههای دانشگاهی یا سازمانهای جامعه مدنی، پیش از انتشار عمومی مدلها، امکان ارزیابی آنها را داشته باشند و نتایج خود را آزادانه منتشر کنند. در متن نامه آمده است:
«هوش مصنوعی میتواند جهان را به شکل مثبت متحول کند، اما همزمان موجب بروز آسیبهای جدی شده و همچنان برای گروههای آسیبپذیر خطرآفرین است.»
این اقدام دادستانها نشان میدهد که حتی در عصری که هوش مصنوعی به سرعت در حال نفوذ به زندگی روزمره است، نظارت و پاسخگویی به نتایج تولید شده حیاتی است. بدون چنین کنترلهایی، خطر تولید اطلاعات نادرست یا محتوای روانی آسیبزا بسیار بالا میرود. این نامه میتواند نقطه شروعی برای استانداردسازی ایمنی و شفافیت در هوش مصنوعی باشد و به کاربران و جامعه اطمینان دهد که پیشرفت فناوری با مسئولیت همراه است.
نامه دادستانها به غولهای هوش مصنوعی؛ درخواست سامانه شفاف برای حوادث سلامت روان
نویسندگان این نامه به چندین حادثه جنجالی در یک سال گذشته اشاره کردهاند که به گفته آنها، ناشی از استفاده نادرست و افراطی از هوش مصنوعی بوده است. یکی از این موارد، خودکشی نوجوان ۱۶ سالهای به نام آدام رین است که OpenAI پیشتر اعلام کرده بود علت آن «استفاده نادرست» از ChatGPT بوده است. این و موارد مشابه، نشان میدهند که چتباتها میتوانند خروجیهای بیاساس و آسیبزا تولید کنند.
برای کاهش این خطرات، دادستانها پیشنهاد کردهاند که شرکتهای هوش مصنوعی، الگوبرداری شده از صنعت امنیت سایبری، سامانهای شفاف برای گزارش حوادث مرتبط با سلامت روان کاربران طراحی و اجرا کنند. همچنین آنها خواستار پیادهسازی آزمونهای ایمنی معقول و استاندارد برای مدلها قبل از انتشار عمومی شدهاند تا از تولید محتوای خطرناک جلوگیری شود.
در همین حال، دولت ترامپ طی سال گذشته تلاش کرده مانع تصویب مقررات ایالتی برای هوش مصنوعی شود، اما فشار مقامات محلی این تلاشها را ناکام گذاشته است. ترامپ روز دوشنبه اعلام کرد که قصد دارد با صدور فرمان اجرایی، هفته آینده قوانین مستقل ایالتی درباره هوش مصنوعی را محدود کند و کنترل بیشتری بر این حوزه اعمال نماید.
این اقدامات دادستانها و همچنین تحرکات دولت، نشان میدهد که جامعه هنوز در جستجوی تعادل بین نوآوری سریع در هوش مصنوعی و حفظ امنیت و سلامت کاربران است. بدون چنین نظارتهایی، هوش مصنوعی میتواند به سرعت به ابزاری آسیبزا تبدیل شود. ایجاد سامانههای شفاف و آزمونهای ایمنی پیش از انتشار، قدمی ضروری برای مسئولیتپذیری شرکتها و کاهش خطرات واقعی کاربران به شمار میرود.
