خرید اقساطی از سایت کارت با کمترین پیش پرداخت

هشدار دادستان‌های آمریکا به غول‌های هوش مصنوعی: پاسخ‌های بی‌اساس را اصلاح کنید!


avatar
نازنین طالب لو
23 آذر 1404 | 3 دقیقه مطالعه


ابزارهای هوش مصنوعی مانند ChatGPT  طی سال‌های اخیر با انتقادهای جدی مواجه شده‌اند؛ از تولید اطلاعات بی‌اساس گرفته تا آثار منفی بالقوه بر سلامت روان کاربران. اکنون گروهی از دادستان‌های کل آمریکا با ارسال نامه‌ای رسمی به بزرگ‌ترین شرکت‌های فعال در حوزه هوش مصنوعی، از جمله مایکروسافت،  OpenAI و گوگل، نسبت به ادامه تولید پاسخ‌های نادرست یا گمراه‌کننده هشدار داده‌اند. سایر شرکت‌های مطرح مانند آنتروپیک، اپل، متا، Perplexity AI  و xAI  نیز در این نامه مورد خطاب قرار گرفته‌اند.

در این نامه، دادستان‌ها خواستار ایجاد رویکردهای حفاظتی داخلی شفاف و قابل بازرسی شده‌اند تا نشانه‌های تولید محتوای بی‌اساس یا رفتارهای چاپلوسانه توسط مدل‌ها شناسایی و اصلاح شوند. همچنین شرکت‌ها موظفند فرآیندهایی برای گزارش‌دهی سریع حوادث احتمالی ایجاد کنند تا کاربران هنگام مواجهه با خروجی‌های آسیب‌زا از نظر روانی به سرعت مطلع شوند. از سوی دیگر، پیشنهاد شده نهادهای مستقل مانند گروه‌های دانشگاهی یا سازمان‌های جامعه مدنی، پیش از انتشار عمومی مدل‌ها، امکان ارزیابی آن‌ها را داشته باشند و نتایج خود را آزادانه منتشر کنند. در متن نامه آمده است:
«هوش مصنوعی می‌تواند جهان را به شکل مثبت متحول کند، اما هم‌زمان موجب بروز آسیب‌های جدی شده و همچنان برای گروه‌های آسیب‌پذیر خطرآفرین است.»


این اقدام دادستان‌ها نشان می‌دهد که حتی در عصری که هوش مصنوعی به سرعت در حال نفوذ به زندگی روزمره است، نظارت و پاسخگویی به نتایج تولید شده حیاتی است. بدون چنین کنترل‌هایی، خطر تولید اطلاعات نادرست یا محتوای روانی آسیب‌زا بسیار بالا می‌رود. این نامه می‌تواند نقطه شروعی برای استانداردسازی ایمنی و شفافیت در هوش مصنوعی باشد و به کاربران و جامعه اطمینان دهد که پیشرفت فناوری با مسئولیت همراه است.


نامه دادستان‌ها به غول‌های هوش مصنوعی؛ درخواست سامانه شفاف برای حوادث سلامت روان


نویسندگان این نامه به چندین حادثه جنجالی در یک سال گذشته اشاره کرده‌اند که به گفته آنها، ناشی از استفاده نادرست و افراطی از هوش مصنوعی بوده است. یکی از این موارد، خودکشی نوجوان ۱۶ ساله‌ای به نام آدام رین است که OpenAI پیش‌تر اعلام کرده بود علت آن «استفاده نادرست» از ChatGPT بوده است. این و موارد مشابه، نشان می‌دهند که چت‌بات‌ها می‌توانند خروجی‌های بی‌اساس و آسیب‌زا تولید کنند.

برای کاهش این خطرات، دادستان‌ها پیشنهاد کرده‌اند که شرکت‌های هوش مصنوعی، الگوبرداری شده از صنعت امنیت سایبری، سامانه‌ای شفاف برای گزارش حوادث مرتبط با سلامت روان کاربران طراحی و اجرا کنند. همچنین آنها خواستار پیاده‌سازی آزمون‌های ایمنی معقول و استاندارد برای مدل‌ها قبل از انتشار عمومی شده‌اند تا از تولید محتوای خطرناک جلوگیری شود.

در همین حال، دولت ترامپ طی سال گذشته تلاش کرده مانع تصویب مقررات ایالتی برای هوش مصنوعی شود، اما فشار مقامات محلی این تلاش‌ها را ناکام گذاشته است. ترامپ روز دوشنبه اعلام کرد که قصد دارد با صدور فرمان اجرایی، هفته آینده قوانین مستقل ایالتی درباره هوش مصنوعی را محدود کند و کنترل بیشتری بر این حوزه اعمال نماید.
این اقدامات دادستان‌ها و همچنین تحرکات دولت، نشان می‌دهد که جامعه هنوز در جستجوی تعادل بین نوآوری سریع در هوش مصنوعی و حفظ امنیت و سلامت کاربران است. بدون چنین نظارت‌هایی، هوش مصنوعی می‌تواند به سرعت به ابزاری آسیب‌زا تبدیل شود. ایجاد سامانه‌های شفاف و آزمون‌های ایمنی پیش از انتشار، قدمی ضروری برای مسئولیت‌پذیری شرکت‌ها و کاهش خطرات واقعی کاربران به شمار می‌رود.