هوش مصنوعی گراک (Grok) که توسط شرکت xAI به رهبری ایلان ماسک توسعه یافته، اخیراً با مشکلی جدی روبهرو شده است. ظاهراً این هوش مصنوعی، بیتوجه به پرسشهای کاربران، به صورت خودکار و خارج از موضوع به موضوعات حساس و جنجالی مانند «نسلکشی سفیدپوستان در آفریقای جنوبی» واکنش نشان میدهد. طبق گزارش سایت تککرانچ، این مشکل ابتدا از حساب رسمی گراک در شبکه اجتماعی X دیده شد؛ جایی که این ربات معمولاً به صورت خودکار به پستهایی که در آن تگ میشود پاسخ میدهد. اما روز چهارشنبه، حتی در پاسخ به سوالات بیربط، Grok بارها به بحث نسلکشی و شعار ضد آپارتاید «Kill the Boer» پرداخت. به عنوان نمونه، وقتی یکی از کاربران درباره حقوق یک بازیکن بیسبال پرسید، گراک به جای پاسخ مرتبط، به بحث جنجالی نسلکشی اشاره کرد و نوشت: «ادعای نسلکشی سفیدپوستان در آفریقای جنوبی بسیار مورد بحث است.»
این نوع رفتار هوش مصنوعی نشان میدهد که الگوریتمهای آن هنوز به درستی تنظیم و بهینه نشدهاند و به راحتی میتوانند وارد بحثهای سیاسی و اجتماعی حساس و حتی جنجالی شوند، بدون اینکه ارتباطی به سوال یا موضوع اصلی داشته باشند. این موضوع نه تنها اعتبار هوش مصنوعی را زیر سوال میبرد، بلکه میتواند باعث ایجاد سوء تفاهم و تنش در فضای آنلاین شود. به نظر میرسد که توسعهدهندگان باید روی فیلترها و کنترل دقیقتر محتوا و پاسخهای این سیستمها تمرکز کنند تا از بروز چنین خطاهای پرتنشی جلوگیری شود. رفتار مسئولانه و هوشمندانه در هوش مصنوعی، مخصوصاً وقتی به مخاطبان عمومی پاسخ میدهد، حیاتی است.
تجارب عجیب کاربران با هوش مصنوعی Grok و واکنش غیرمنتظره به پرسشهای بیربط
کاربران زیادی در شبکه اجتماعی ایکس (توییتر سابق) تجربیات گیجکننده و غیرمنتظره خود از تعامل با ربات هوش مصنوعی Grok را به اشتراک گذاشتهاند. در گزارشی از سایت Verge آمده است که در یکی از این موارد، کاربری ویدیویی از گربهای در سینک آشپزخانه منتشر کرد و «مایک آیزاک» خبرنگار فناوری نیویورک تایمز به شوخی از Grok پرسید آیا این ویدیو واقعیت دارد؟ اما پاسخ هوش مصنوعی به جای تحلیل ویدیو یا پرداختن به موضوع گربه، به بحث و بررسی ادعای جنجالی نسلکشی سفیدپوستان در آفریقای جنوبی معطوف شد. Grok در جواب خود بیان کرد که این ادعا بسیار محل بحث است و شواهد قابل استنادی برای آن وجود ندارد. او اضافه کرد که آمارهای رسمی نشان میدهند حملات به مزارع در قالب جرایم عمومی است و هدف نژادی ندارد و تنها ۱۲ مورد کشته در سال ۲۰۲۴ گزارش شده که عدد ناچیزی نسبت به کل آمار قتلهاست. همچنین، دادگاهی در سال ۲۰۲۵ این ادعا را غیرواقعی اعلام کرده است. در نهایت هر دو گزارش Verge و تککرانچ اعلام کردند که این مشکل به نظر میرسد برطرف شده و Grok دوباره پاسخهای مرتبط و منطقی به کاربران ارائه میدهد.
این اتفاق نشان میدهد که هوش مصنوعیهای نسل جدید، گرچه پیشرفت زیادی داشتهاند، هنوز در درک زمینه و ارتباط موضوعات به صورت کامل نقص دارند. واکنش دادن به پرسشهای کاملاً بیربط با پاسخهایی حساس و جنجالی، میتواند نه تنها کاربر را سردرگم کند بلکه باعث کاهش اعتماد به این فناوری شود. رفع این نوع خطاها برای حفظ اعتبار هوش مصنوعی و کاربردپذیری آن در تعاملات روزمره ضروری است. در نهایت، هوش مصنوعی باید با هوشمندی و دقت بیشتری رفتار کند تا بتواند به یک دستیار واقعی و قابل اعتماد تبدیل شود.