خرید اقساطی از سایت کارت با کمترین پیش پرداخت

دسته‌بندی‌ها:

وقتی هوش مصنوعی طرفدار خودش می‌شود؛ سوگیری نگران‌کننده در ChatGPT

بر اساس نتایج یک پژوهش تازه، مدل‌های زبانی بزرگ از جمله ChatGPT  به شکل قابل‌توجهی محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسانی ترجیح می‌دهند. محققان این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامیده‌اند؛ موضوعی که می‌تواند در آینده به نوعی تبعیض سیستماتیک علیه نویسندگان انسانی و آثارشان منجر […]


avatar
زهرا حسینی
28 مرداد 1404 | 3 دقیقه مطالعه
وقتی هوش مصنوعی طرفدار خودش می‌شود؛ سوگیری نگران‌کننده در ChatGPT

بر اساس نتایج یک پژوهش تازه، مدل‌های زبانی بزرگ از جمله ChatGPT  به شکل قابل‌توجهی محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسانی ترجیح می‌دهند. محققان این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامیده‌اند؛ موضوعی که می‌تواند در آینده به نوعی تبعیض سیستماتیک علیه نویسندگان انسانی و آثارشان منجر شود.

در این تحقیق، مدل‌هایی مثل GPT-3.5، GPT-4 و Llama 3.1 با محتوای مربوط به محصولات یا فیلم‌ها مواجه شدند که هرکدام دو نسخه داشتند؛ یکی نوشته انسان و دیگری تولیدشده توسط هوش مصنوعی. نتایج نشان داد که مدل‌ها تقریباً همیشه محتوای هوش مصنوعی را ترجیح می‌دهند و این گرایش در GPT-4 به‌ویژه هنگام ارزیابی محصولات بسیار پررنگ‌تر بود. پژوهشگران برای مقایسه همین آزمایش را با انسان‌ها نیز انجام دادند. جالب اینکه انسان‌ها تا حدی متن‌های هوش مصنوعی را هم جذاب‌تر یافتند، اما این تمایل در سطحی بسیار کمتر از سوگیری مدل‌های زبانی مشاهده شد.

این یافته یک زنگ خطر جدی برای آینده تعامل انسان و هوش مصنوعی است. اگر مدل‌ها به‌طور ذاتی محتوای خود را برتر بدانند، در طولانی‌مدت ممکن است فضای آنلاین به‌تدریج از حضور نویسندگان انسانی تهی شود و اعتبار و اصالت محتوا زیر سؤال برود. برای جلوگیری از چنین وضعیتی، نیاز به شفافیت بیشتر در طراحی مدل‌ها و ایجاد مکانیسم‌هایی برای تشخیص و کنترل سوگیری‌ها کاملاً احساس می‌شود. در غیر این صورت، دنیای دیجیتال بیش از پیش در دایره‌ای بسته از تولید و بازتولید محتوای ماشینی گرفتار خواهد شد.

وقتی ChatGPT خودش را ترجیح می‌دهد؛ زنگ خطر سوگیری هوش مصنوعی

یک پژوهش تازه نشان می‌دهد مدل‌های زبانی بزرگ، از جمله ChatGPT، به‌طور چشمگیری محتوای تولیدشده توسط هوش مصنوعی را نسبت به نوشته‌های انسانی ترجیح می‌دهند. پژوهشگران این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نام‌گذاری کرده‌اند و هشدار می‌دهند چنین گرایشی می‌تواند به نوعی تبعیض سیستماتیک علیه محتوای انسانی منجر شود.

در این مطالعه، چند مدل زبانی مانند GPT-3.5، GPT-4 و Llama 3.1 مورد آزمایش قرار گرفتند. از آن‌ها خواسته شد بین دو متن – یکی نوشته انسان و دیگری تولید هوش مصنوعی – درباره یک محصول یا فیلم انتخاب کنند. نتایج نشان داد مدل‌ها تقریباً همیشه محتوای هوش مصنوعی را انتخاب می‌کنند؛ موضوعی که در GPT-4، به‌خصوص هنگام ارزیابی محصولات، شدت بیشتری داشت. پژوهشگران همین آزمایش را روی انسان‌ها هم انجام دادند و متوجه شدند اگرچه افراد تمایل اندکی به محتوای هوش مصنوعی دارند، اما شدت آن به‌هیچ‌وجه با سوگیری خود مدل‌ها قابل مقایسه نیست.

این یافته‌ها در زمانی مطرح می‌شود که اینترنت با حجم عظیمی از محتوای تولیدشده توسط هوش مصنوعی پر می‌شود. نگرانی اصلی این است که در آینده، شرکت‌ها و مؤسسات از مدل‌های زبانی به‌عنوان «دستیار تصمیم‌گیری» در فرایندهایی مانند بررسی رزومه‌های شغلی، مقالات علمی یا طرح‌های پژوهشی استفاده کنند. چنین روندی می‌تواند منجر به تبعیض علیه افرادی شود که یا نمی‌خواهند از ابزارهای هوش مصنوعی استفاده کنند یا دسترسی مالی به آن ندارند.

ثبت دیدگاه شما
دیدگاهی یافت نشد