بر اساس نتایج یک پژوهش تازه، مدلهای زبانی بزرگ از جمله ChatGPT به شکل قابلتوجهی محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسانی ترجیح میدهند. محققان این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامیدهاند؛ موضوعی که میتواند در آینده به نوعی تبعیض سیستماتیک علیه نویسندگان انسانی و آثارشان منجر شود.
در این تحقیق، مدلهایی مثل GPT-3.5، GPT-4 و Llama 3.1 با محتوای مربوط به محصولات یا فیلمها مواجه شدند که هرکدام دو نسخه داشتند؛ یکی نوشته انسان و دیگری تولیدشده توسط هوش مصنوعی. نتایج نشان داد که مدلها تقریباً همیشه محتوای هوش مصنوعی را ترجیح میدهند و این گرایش در GPT-4 بهویژه هنگام ارزیابی محصولات بسیار پررنگتر بود. پژوهشگران برای مقایسه همین آزمایش را با انسانها نیز انجام دادند. جالب اینکه انسانها تا حدی متنهای هوش مصنوعی را هم جذابتر یافتند، اما این تمایل در سطحی بسیار کمتر از سوگیری مدلهای زبانی مشاهده شد.
این یافته یک زنگ خطر جدی برای آینده تعامل انسان و هوش مصنوعی است. اگر مدلها بهطور ذاتی محتوای خود را برتر بدانند، در طولانیمدت ممکن است فضای آنلاین بهتدریج از حضور نویسندگان انسانی تهی شود و اعتبار و اصالت محتوا زیر سؤال برود. برای جلوگیری از چنین وضعیتی، نیاز به شفافیت بیشتر در طراحی مدلها و ایجاد مکانیسمهایی برای تشخیص و کنترل سوگیریها کاملاً احساس میشود. در غیر این صورت، دنیای دیجیتال بیش از پیش در دایرهای بسته از تولید و بازتولید محتوای ماشینی گرفتار خواهد شد.
وقتی ChatGPT خودش را ترجیح میدهد؛ زنگ خطر سوگیری هوش مصنوعی
یک پژوهش تازه نشان میدهد مدلهای زبانی بزرگ، از جمله ChatGPT، بهطور چشمگیری محتوای تولیدشده توسط هوش مصنوعی را نسبت به نوشتههای انسانی ترجیح میدهند. پژوهشگران این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامگذاری کردهاند و هشدار میدهند چنین گرایشی میتواند به نوعی تبعیض سیستماتیک علیه محتوای انسانی منجر شود.
در این مطالعه، چند مدل زبانی مانند GPT-3.5، GPT-4 و Llama 3.1 مورد آزمایش قرار گرفتند. از آنها خواسته شد بین دو متن – یکی نوشته انسان و دیگری تولید هوش مصنوعی – درباره یک محصول یا فیلم انتخاب کنند. نتایج نشان داد مدلها تقریباً همیشه محتوای هوش مصنوعی را انتخاب میکنند؛ موضوعی که در GPT-4، بهخصوص هنگام ارزیابی محصولات، شدت بیشتری داشت. پژوهشگران همین آزمایش را روی انسانها هم انجام دادند و متوجه شدند اگرچه افراد تمایل اندکی به محتوای هوش مصنوعی دارند، اما شدت آن بههیچوجه با سوگیری خود مدلها قابل مقایسه نیست.
این یافتهها در زمانی مطرح میشود که اینترنت با حجم عظیمی از محتوای تولیدشده توسط هوش مصنوعی پر میشود. نگرانی اصلی این است که در آینده، شرکتها و مؤسسات از مدلهای زبانی بهعنوان «دستیار تصمیمگیری» در فرایندهایی مانند بررسی رزومههای شغلی، مقالات علمی یا طرحهای پژوهشی استفاده کنند. چنین روندی میتواند منجر به تبعیض علیه افرادی شود که یا نمیخواهند از ابزارهای هوش مصنوعی استفاده کنند یا دسترسی مالی به آن ندارند.