پس از انتشار برخی گزارشها و برداشتهای اشتباه از تغییر سیاستهای OpenAI، این شرکت اعلام کرد که هیچ ممنوعیتی برای ارائه راهنماییهای پزشکی و حقوقی در ChatGPT اعمال نشده است و رفتار چتبات همچنان مانند گذشته باقی مانده. در روزهای اخیر برخی شایعات مدعی شده بودند که ChatGPT قرار است از ارائه هرگونه مشاوره مرتبط با قانون و سلامت منع شود؛ اما «کاران سینگال» مدیر بخش سلامت هوش مصنوعی در OpenAI، با انتشار پستی در ایکس تأکید کرد این موضوع حقیقت ندارد. او توضیح داد که ChatGPT هرگز جایگزین پزشک یا وکیل متخصص نبوده، اما همچنان میتواند به کاربران در فهم بهتر مفاهیم و اطلاعات حقوقی و پزشکی کمک مؤثر ارائه دهد. در واقع تغییرات اخیر تنها به توضیح دقیقتر و واضحتر قوانین موجود پرداختهاند، نه ایجاد محدودیت جدید.
این موضوع یکی از مهمترین نمونههایی است که در آن رسانهها گاهی بهصورت شتابزده و بدون بررسی کامل سیاستها، برداشتهای نادرست و تیترهای حساسیتساز منتشر میکنند. واقعیت این است که ChatGPT تمام این مدت نقش یک دستیار کمککننده در تحلیل، فهم، توضیح و سادهسازی اطلاعات پیچیده را داشت و دارد، نه جایگزین متخصص. این شفافسازی، نه تنها اعتماد کاربران را بیشتر میکند، بلکه نشان میدهد OpenAI تلاش میکند میان آزادی استفاده عمومی و حفظ استانداردهای سلامت و قانونمداری، یک تعادل منطقی ایجاد کند.
ابهام در سیاستهای OpenAI برطرف شد؛ مشاوره تخصصی در ChatGPT همچنان مشروط به نظارت متخصصان است
سردرگمی اخیر درباره محدودیتهای ChatGPT در ارائه مشاوره پزشکی و حقوقی، از بهروزرسانی سیاستنامه OpenAI در تاریخ ۲۹ اکتبر (۷ آبان) نشأت گرفت. در نسخه جدید این سیاستنامه، بندی اضافه شده که میگوید کاربران نباید از ChatGPT برای «ارائه مشاوره سفارشی که نیازمند مجوز رسمی است، مانند خدمات حقوقی یا پزشکی، بدون نظارت متخصص دارای مجوز» استفاده کنند. این در حالی است که در نسخههای پیشین نیز تقریباً همین بند با عباراتی مشابه وجود داشت و صرفاً شکل بیان آن اکنون شفافتر و منسجمتر شده است.
در واقع، OpenAI پیشتر سه سند سیاستنامه جداگانه داشت؛ یکی عمومی، یکی مختص ChatGPT و دیگری مربوط به API. اما در این بهروزرسانی جدید، تمام این اسناد در یک قالب واحد ادغام شدهاند تا کاربران بتوانند بهراحتی از چارچوبهای مجاز استفاده مطلع شوند، بدون اینکه در اصل قوانین تغییری ایجاد شده باشد.
اقدام OpenAI در یکپارچهسازی و شفافسازی سیاستهای خود کاملاً منطقی و حتی ضروری بود. در فضای پیچیدهای که هوش مصنوعی هر روز نقش بیشتری در زندگی روزمره پیدا میکند، وضوح در مرز میان «راهنمایی» و «مشاوره حرفهای» اهمیت حیاتی دارد. چنین شفافسازیهایی نهتنها از بروز برداشتهای نادرست جلوگیری میکند، بلکه اعتماد کاربران را نسبت به عملکرد اخلاقی و مسئولانه OpenAI تقویت مینماید. ChatGPT همچنان میتواند یاریرسان و آگاهکننده باشد، اما باید همیشه در کنار تخصص انسانی معنا پیدا کند.
