در مطالعهای تازه از مؤسسه فناوری ماساچوست (MIT)، پژوهشگران به بررسی مدلهای هوش مصنوعی توسعهیافته توسط شرکتهایی چون متا، گوگل، OpenAI، انتروپیک و Mistral پرداختند. «استیون کاسپر»، دانشجوی دکتری و یکی از نویسندگان این تحقیق، اظهار میدارد که نمیتوان بر اساس آزمایشهای محدود، در مورد ارزشها یا دیدگاههای ثابت این مدلها قضاوت قطعی کرد. او تأکید دارد که تلاش برای تحلیل دقیق این سیستمها بر اساس سناریوهای خاص، اغلب منجر به برداشتهای نادرست میشود. یافتهها حاکی از آن است که پاسخها و ترجیحات این مدلها متغیر بوده و تحت تأثیر نوع پرسش و شرایط متفاوت، تغییر میکند. از نظر کاسپر، این مدلها بیشتر به تقلیدگرانی هوشمند شباهت دارند تا موجوداتی با نظام ارزشی پایدار.
این تحقیق بهدرستی به یکی از مهمترین چالشهای شناخت مدلهای زبانی بزرگ میپردازد. برخلاف تصور عموم، این سیستمها نه دارای شخصیتاند و نه ارزشهای ثابتی دارند. در واقع، آنها واکنشگرهایی پیچیدهاند که براساس دادههای ورودی، پاسخهایی احتمالی و مطابق با الگوهای زبانی ارائه میکنند. این نتیجهگیری برای استفاده اخلاقمدار از هوش مصنوعی، بهویژه در حوزههایی مانند آموزش، قضاوت، یا سیاستگذاری بسیار مهم و کلیدی است.