OpenAI در جدیدترین نسخهی سیاستهای استفاده از سرویسهایش، رویکرد محتاطانهتری را نسبت به ارائه خدمات تخصصی در حوزههایی مثل پزشکی و حقوق اتخاذ کرده است. طبق قوانین جدید که از ۷ آبان (۲۹ اکتبر) اجرایی شده، کاربران نباید از ChatGPT یا دیگر محصولات این شرکت برای ارائه مشاورههای حساس و تخصصی استفاده کنند؛ مخصوصاً در مواردی که این مشاورهها نیازمند مجوز رسمی، تخصص حرفهای یا مسئولیت قانونی مشخص هستند.
OpenAI در ابتدای این سند جدید تأکید کرده که هدف اصلی این تغییرات، تضمین استفاده ایمن و مسئولانه از هوش مصنوعی است؛ در عین اینکه میخواهد آزادی کاربران برای خلاقیت و استفادههای متنوع همچنان محفوظ بماند. اما در عین حال، مرزها و خطوط قرمزی را تعریف کرده تا از آسیب، تحریف اطلاعات یا تبعات حقوقی ناخواسته جلوگیری شود.
جزئیات محدودیتهای پزشکی و حقوقی
طبق بخشی از این سند، کاربران تنها در صورتی مجاز به ارائه مشاوره تخصصی از طریق ابزارهای OpenAI هستند که یک متخصص دارای مجوز، در فرآیند حضور داشته باشد. این بند بیشتر جنبه پیشگیری حقوقی دارد تا ممنوعیت کامل؛ اما به هر حال مسئولیت نهایی تشخیص صحت، کاربرد و تبعات استفاده از پاسخهای هوش مصنوعی، همچنان بر عهده خود کاربران قرار داده شده است.
این تصمیم کاملاً قابل پیشبینی بود. هرچه مدلهای AI قدرتمندتر میشوند، ریسک سوءاستفاده و برداشت غلط از پاسخها هم افزایش پیدا میکند. در حوزههایی مثل پزشکی، روانشناسی، حقوق یا دارو، یک جمله اشتباه میتواند به ضرر جدی یک شخص منجر شود. OpenAI با این سیاست جدید عملاً دارد سقف مسئولیتپذیریاش را واضحتر میکند تا هم رفتار کاربران مدیریت شود و هم سیستم حقوقی آینده برای AI شکل بگیرد. به نظرم این مسیر اجتنابناپذیر است و اگر سایر شرکتهای نسل بعدی هوش مصنوعی هم به سمت استانداردگذاری شفاف حرکت نکنند، بحرانهای بزرگتری در این حوزه رخ خواهد داد.
چارچوب سختگیرانهتر برای استفاده ایمن از هوش مصنوعی در محصولات OpenAI
سیاستهای تازه منتشرشده OpenAI تنها به محدودیت در مشاورههای حقوقی و پزشکی خلاصه نمیشود، بلکه مجموعهای گستردهتر از قوانین جدید را شامل میشود. این شرکت اعلام کرده که استفاده از سرویسهایش برای تهدید، آزار، تشویق خشونت یا تولید محتوایی که به کودکان آسیب برساند، بهطور کامل ممنوع است. همچنین مدلهای AI نباید بدون دخالت و نظارت انسانی، درباره موضوعات حساسی مثل مهاجرت، استخدام، مسائل مالی یا آموزشی تصمیمگیری مستقیم و قطعی انجام دهند.
OpenAI تاکید کرده که بهصورت مستمر این سیاستها را بهروزرسانی خواهد کرد تا هم overly restrictive نباشند و خلاقیت و نوآوری کاربران را محدود نکنند، و هم از سوی دیگر مانع سوءاستفاده و تولید آسیب توسط مدلهای هوش مصنوعی شوند. این شرکت حتی اعلام کرده که بهزودی به کاربرانی که سن آنها تأیید شده باشد اجازه خواهد داد در چارچوب مشخص، امکان مکالمات بزرگسالانه با ChatGPT را داشته باشند. همچنین کاربران در صورت برخورد با اعمال نادرست یا اجرای اشتباه سیاستها، میتوانند درخواست بازبینی و تجدیدنظر ثبت کنند.
این سیاستها نشان میدهد صنعت AI حالا دارد وارد فاز «استانداردسازی اجتماعی» میشود. دیگر فقط بحث قدرت مدل، کیفیت متن یا سرعت پاسخ نیست؛ بحث مدیریت مسئولانه روی رفتار و پیامدهای خروجی است. هوش مصنوعی امروز همان نقشی را پیدا کرده که شبکههای اجتماعی ده سال پیش پیدا کردند، با این تفاوت که این بار خروجی نه محتوای کاربر، بلکه تولید سیستم است. اگر این مرحله بدون کنترل دقیق و قوانین شفاف پیش برود، تبعات اخلاقی و حقوقی بزرگتری از دوران شبکههای اجتماعی ایجاد خواهد کرد. بنابراین این جهتگیری OpenAI به سمت سیاستهای سختگیرانهتر، نه فقط لازم، بلکه اجتنابناپذیر است.
