در این گزارش که توسط وبسایت کارگروه ناظر بر حریم خصوصی اتحادیه اروپا منتشر شده، آمده است:
(اگرچه تدابیری که بهمنظور رعایت اصل شفافیت انجام شدهاند به منظور جلوگیری از تفسیر نادرست خروجی ChatGPT مفید بودهاند، اما برای مطابقت با اصل دقت داده کافی نیستند.)
این کارگروه سال گذشته و پس از آنکه تنظیمکنندههای ملی اتحادیه اروپا به رهبری مقامات ایتالیایی نگرانیهایی را در مورد سرویس هوش مصنوعی ChatGPT مطرح کردند، راهاندازی شد. همچنین، سال گذشته، به دلیل نگرانیهای حریم خصوصی کاربران، استفاده از ChatGPT در مقطعی در ایتالیا ممنوع شد.
گزارش این کارگروه نشان میدهد که ناظران ملی حفظ حریم خصوصی در برخی از کشورهای عضو اتحادیه اروپا همچنان در حال انجام تحقیقات مختلف درباره ChatGPT هستند و ارائه شرح کاملی از نتایج آنها هنوز امکانپذیر نیست.
در بخش دیگری از گزارش آمده است:
با توجه به ماهیت احتمالی این سیستم، رویکرد آموزشی کنونی به مدلی ختم خواهد شد که ممکن است خروجیهای سوگیرانه یا ساختگی ایجاد کند. همچنین، خروجیهای ارائه شده توسط ChatGPT احتمالاً بدون در نظر گرفتن دقت واقعی آنها، توسط کاربران نهایی به دقت تلقی میشوند.
نگرانی ها از توسعه هوش مصنوعی بدون وجود قوانین نظارتی دقیق و مستحکم هر روز بیشتر می شود و البته در بسیاری از نقاط جهان حتی کارگروه های نظارت بر عملکرد این ابزار جدید ایجاد نشده است.
پیشنهاد مطالعه: هشدار ایلان ماسک درباره سوگیریهای خطرناک هوش مصنوعی