خرید اقساطی از سایت کارت با کمترین پیش پرداخت

محدودیت تازه OpenAI؛ پایان ارائه توصیه‌های پزشکی و حقوقی بدون نظارت متخصص


avatar
نازنین طالب لو
13 آبان 1404 | 4 دقیقه مطالعه

 OpenAI در جدیدترین نسخه‌ی سیاست‌های استفاده از سرویس‌هایش، رویکرد محتاطانه‌تری را نسبت به ارائه خدمات تخصصی در حوزه‌هایی مثل پزشکی و حقوق اتخاذ کرده است. طبق قوانین جدید که از ۷ آبان (۲۹ اکتبر) اجرایی شده، کاربران نباید از ChatGPT یا دیگر محصولات این شرکت برای ارائه مشاوره‌های حساس و تخصصی استفاده کنند؛ مخصوصاً در مواردی که این مشاوره‌ها نیازمند مجوز رسمی، تخصص حرفه‌ای یا مسئولیت قانونی مشخص هستند.

 OpenAI در ابتدای این سند جدید تأکید کرده که هدف اصلی این تغییرات، تضمین استفاده ایمن و مسئولانه از هوش مصنوعی است؛ در عین اینکه می‌خواهد آزادی کاربران برای خلاقیت و استفاده‌های متنوع همچنان محفوظ بماند. اما در عین حال، مرزها و خطوط قرمزی را تعریف کرده تا از آسیب، تحریف اطلاعات یا تبعات حقوقی ناخواسته جلوگیری شود.

جزئیات محدودیت‌های پزشکی و حقوقی

طبق بخشی از این سند، کاربران تنها در صورتی مجاز به ارائه مشاوره تخصصی از طریق ابزارهای OpenAI هستند که یک متخصص دارای مجوز، در فرآیند حضور داشته باشد. این بند بیشتر جنبه پیشگیری حقوقی دارد تا ممنوعیت کامل؛ اما به هر حال مسئولیت نهایی تشخیص صحت، کاربرد و تبعات استفاده از پاسخ‌های هوش مصنوعی، همچنان بر عهده خود کاربران قرار داده شده است.

این تصمیم کاملاً قابل پیش‌بینی بود. هرچه مدل‌های AI قدرتمندتر می‌شوند، ریسک سوءاستفاده و برداشت غلط از پاسخ‌ها هم افزایش پیدا می‌کند. در حوزه‌هایی مثل پزشکی، روانشناسی، حقوق یا دارو، یک جمله اشتباه می‌تواند به ضرر جدی یک شخص منجر شود. OpenAI با این سیاست جدید عملاً دارد سقف مسئولیت‌پذیری‌اش را واضح‌تر می‌کند تا هم رفتار کاربران مدیریت شود و هم سیستم حقوقی آینده برای AI شکل بگیرد. به نظرم این مسیر اجتناب‌ناپذیر است و اگر سایر شرکت‌های نسل بعدی هوش مصنوعی هم به سمت استانداردگذاری شفاف حرکت نکنند، بحران‌های بزرگ‌تری در این حوزه رخ خواهد داد.

چارچوب سخت‌گیرانه‌تر برای استفاده ایمن از هوش مصنوعی در محصولات OpenAI

سیاست‌های تازه منتشرشده OpenAI تنها به محدودیت در مشاوره‌های حقوقی و پزشکی خلاصه نمی‌شود، بلکه مجموعه‌ای گسترده‌تر از قوانین جدید را شامل می‌شود. این شرکت اعلام کرده که استفاده از سرویس‌هایش برای تهدید، آزار، تشویق خشونت یا تولید محتوایی که به کودکان آسیب برساند، به‌طور کامل ممنوع است. همچنین مدل‌های AI نباید بدون دخالت و نظارت انسانی، درباره موضوعات حساسی مثل مهاجرت، استخدام، مسائل مالی یا آموزشی تصمیم‌گیری مستقیم و قطعی انجام دهند.

 OpenAI تاکید کرده که به‌صورت مستمر این سیاست‌ها را به‌روزرسانی خواهد کرد تا هم overly restrictive نباشند و خلاقیت و نوآوری کاربران را محدود نکنند، و هم از سوی دیگر مانع سوءاستفاده و تولید آسیب توسط مدل‌های هوش مصنوعی شوند. این شرکت حتی اعلام کرده که به‌زودی به کاربرانی که سن آن‌ها تأیید شده باشد اجازه خواهد داد در چارچوب مشخص، امکان مکالمات بزرگسالانه با ChatGPT را داشته باشند. همچنین کاربران در صورت برخورد با اعمال نادرست یا اجرای اشتباه سیاست‌ها، می‌توانند درخواست بازبینی و تجدیدنظر ثبت کنند.

این سیاست‌ها نشان می‌دهد صنعت AI حالا دارد وارد فاز «استانداردسازی اجتماعی» می‌شود. دیگر فقط بحث قدرت مدل، کیفیت متن یا سرعت پاسخ نیست؛ بحث مدیریت مسئولانه روی رفتار و پیامدهای خروجی است. هوش مصنوعی امروز همان نقشی را پیدا کرده که شبکه‌های اجتماعی ده سال پیش پیدا کردند، با این تفاوت که این بار خروجی نه محتوای کاربر، بلکه تولید سیستم است. اگر این مرحله بدون کنترل دقیق و قوانین شفاف پیش برود، تبعات اخلاقی و حقوقی بزرگ‌تری از دوران شبکه‌های اجتماعی ایجاد خواهد کرد. بنابراین این جهت‌گیری OpenAI به سمت سیاست‌های سخت‌گیرانه‌تر، نه فقط لازم، بلکه اجتناب‌ناپذیر است.