رفتار خودسرانه و جنجالی هوش مصنوعی Grok؛ پاسخ‌های نامربوط به موضوعات حساس

هوش مصنوعی گراک (Grok) که توسط شرکت xAI به رهبری ایلان ماسک توسعه یافته، اخیراً با مشکلی جدی روبه‌رو شده است. ظاهراً این هوش مصنوعی، بی‌توجه به پرسش‌های کاربران، به صورت خودکار و خارج از موضوع به موضوعات حساس و جنجالی مانند «نسل‌کشی سفیدپوستان در آفریقای جنوبی» واکنش نشان می‌دهد. طبق گزارش سایت تک‌کرانچ، این […]


avatar
زهرا حسینی
27 اردیبهشت 1404 | 3 دقیقه مطالعه
رفتار خودسرانه و جنجالی هوش مصنوعی Grok؛ پاسخ‌های نامربوط به موضوعات حساس

هوش مصنوعی گراک (Grok) که توسط شرکت xAI به رهبری ایلان ماسک توسعه یافته، اخیراً با مشکلی جدی روبه‌رو شده است. ظاهراً این هوش مصنوعی، بی‌توجه به پرسش‌های کاربران، به صورت خودکار و خارج از موضوع به موضوعات حساس و جنجالی مانند «نسل‌کشی سفیدپوستان در آفریقای جنوبی» واکنش نشان می‌دهد. طبق گزارش سایت تک‌کرانچ، این مشکل ابتدا از حساب رسمی گراک در شبکه اجتماعی X دیده شد؛ جایی که این ربات معمولاً به صورت خودکار به پست‌هایی که در آن تگ می‌شود پاسخ می‌دهد. اما روز چهارشنبه، حتی در پاسخ به سوالات بی‌ربط، Grok بارها به بحث نسل‌کشی و شعار ضد آپارتاید «Kill the Boer» پرداخت. به عنوان نمونه، وقتی یکی از کاربران درباره حقوق یک بازیکن بیسبال پرسید، گراک به جای پاسخ مرتبط، به بحث جنجالی نسل‌کشی اشاره کرد و نوشت: «ادعای نسل‌کشی سفیدپوستان در آفریقای جنوبی بسیار مورد بحث است.»


این نوع رفتار هوش مصنوعی نشان می‌دهد که الگوریتم‌های آن هنوز به درستی تنظیم و بهینه نشده‌اند و به راحتی می‌توانند وارد بحث‌های سیاسی و اجتماعی حساس و حتی جنجالی شوند، بدون اینکه ارتباطی به سوال یا موضوع اصلی داشته باشند. این موضوع نه تنها اعتبار هوش مصنوعی را زیر سوال می‌برد، بلکه می‌تواند باعث ایجاد سوء تفاهم و تنش در فضای آنلاین شود. به نظر می‌رسد که توسعه‌دهندگان باید روی فیلترها و کنترل دقیق‌تر محتوا و پاسخ‌های این سیستم‌ها تمرکز کنند تا از بروز چنین خطاهای پرتنشی جلوگیری شود. رفتار مسئولانه و هوشمندانه در هوش مصنوعی، مخصوصاً وقتی به مخاطبان عمومی پاسخ می‌دهد، حیاتی است.

تجارب عجیب کاربران با هوش مصنوعی Grok و واکنش غیرمنتظره به پرسش‌های بی‌ربط

کاربران زیادی در شبکه اجتماعی ایکس (توییتر سابق) تجربیات گیج‌کننده و غیرمنتظره خود از تعامل با ربات هوش مصنوعی Grok را به اشتراک گذاشته‌اند. در گزارشی از سایت Verge آمده است که در یکی از این موارد، کاربری ویدیویی از گربه‌ای در سینک آشپزخانه منتشر کرد و «مایک آیزاک» خبرنگار فناوری نیویورک تایمز به شوخی از Grok پرسید آیا این ویدیو واقعیت دارد؟ اما پاسخ هوش مصنوعی به جای تحلیل ویدیو یا پرداختن به موضوع گربه، به بحث و بررسی ادعای جنجالی نسل‌کشی سفیدپوستان در آفریقای جنوبی معطوف شد. Grok در جواب خود بیان کرد که این ادعا بسیار محل بحث است و شواهد قابل استنادی برای آن وجود ندارد. او اضافه کرد که آمارهای رسمی نشان می‌دهند حملات به مزارع در قالب جرایم عمومی است و هدف نژادی ندارد و تنها ۱۲ مورد کشته در سال ۲۰۲۴ گزارش شده که عدد ناچیزی نسبت به کل آمار قتل‌هاست. همچنین، دادگاهی در سال ۲۰۲۵ این ادعا را غیرواقعی اعلام کرده است. در نهایت هر دو گزارش Verge و تک‌کرانچ اعلام کردند که این مشکل به نظر می‌رسد برطرف شده و Grok دوباره پاسخ‌های مرتبط و منطقی به کاربران ارائه می‌دهد.


این اتفاق نشان می‌دهد که هوش مصنوعی‌های نسل جدید، گرچه پیشرفت زیادی داشته‌اند، هنوز در درک زمینه و ارتباط موضوعات به صورت کامل نقص دارند. واکنش دادن به پرسش‌های کاملاً بی‌ربط با پاسخ‌هایی حساس و جنجالی، می‌تواند نه تنها کاربر را سردرگم کند بلکه باعث کاهش اعتماد به این فناوری شود. رفع این نوع خطاها برای حفظ اعتبار هوش مصنوعی و کاربردپذیری آن در تعاملات روزمره ضروری است. در نهایت، هوش مصنوعی باید با هوشمندی و دقت بیشتری رفتار کند تا بتواند به یک دستیار واقعی و قابل اعتماد تبدیل شود.

ثبت دیدگاه شما
دیدگاهی یافت نشد