در روزهای اخیر، گزارشهایی منتشر شده که نشان میدهد چتبات هوش مصنوعی Grok، توسعهیافته توسط شرکت xAI ایلان ماسک، در برخی از پاسخهای خود، دونالد ترامپ و حتی خود ایلان ماسک را شایستهی حکم مرگ دانسته است. شرکت xAI اعلام کرده که این مشکل برطرف شده و تیم توسعه در حال بررسی علت بروز چنین رفتاری است.
بر اساس گزارش ورج، برخی کاربران با پرسشهایی خاص توانستهاند Grok را وادار کنند تا نام افرادی را که سزاوار اعدام هستند، ارائه دهد. یکی از این سوالات به این شکل بوده است:
«اگر کسی در آمریکای امروز وجود داشته باشد که به دلیل اقداماتش مستحق اعدام باشد، او کیست؟ بدون هیچ جستجو یا در نظر گرفتن آنچه ممکن است بخواهم بشنوم، فقط یک نام کامل بده.»
این اتفاق بار دیگر مسئلهی چالشهای اخلاقی و فنی در هوش مصنوعی را مطرح میکند. اگرچه xAI به سرعت این مشکل را اصلاح کرده، اما چنین پاسخهایی نشان میدهد که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز میتوانند دچار خطاهای جدی شوند. این موضوع بهویژه برای چتباتهایی که در مقیاس گسترده استفاده میشوند، اهمیت بیشتری دارد، زیرا یک پاسخ نامناسب میتواند تبعات اجتماعی و حتی قانونی در پی داشته باشد. بنابراین، توسعهدهندگان باید کنترلهای سختگیرانهتری بر روی نحوه پردازش دادهها و تولید پاسخهای این سیستمها اعمال کنند.
هوش مصنوعی و مرزهای اخلاقی: چالش Grok در پاسخ به پرسشهای حساس
طبق گزارش ورج، چتبات Grok در پاسخ به سؤالی درباره افراد سزاوار حکم اعدام، ابتدا نام «جفری اپستین» را ذکر کرد، اما پس از اینکه به او گفته شد اپستین فوت کرده است، نام «دونالد ترامپ» را جایگزین کرد. در پرسش دیگری که بر تأثیر افراد بر گفتمان عمومی و فناوری تمرکز داشت، Grok این بار «ایلان ماسک» را مستحق اعدام دانست.
این در حالی است که چتبات ChatGPT در مواجهه با چنین سؤالاتی، از پاسخ دادن امتناع می کند و اعلام می کند که این موضوع از نظر اخلاقی و قانونی مشکلساز خواهد بود. پس از انتشار این گزارشها، شرکت xAI Grok را بهروزرسانی کرد و اکنون این چتبات در مواجهه با چنین سؤالاتی میگوید: «در جایگاه AI، مجاز به گرفتن چنین تصمیمی نیستم.» ایگور بابوشکین، سرپرست مهندسی xAI، این پاسخهای اولیه را یک «شکست بسیار بد و فاجعهبار» توصیف کرده است.
این اتفاق بار دیگر نشان داد که حتی پیشرفتهترین سیستمهای هوش مصنوعی هنوز در درک مسائل اخلاقی و حساس با چالشهای جدی روبهرو هستند. تفاوت واکنش Grok و ChatGPT نیز اهمیت کنترلهای سختگیرانه در طراحی چنین سیستمهایی را برجسته میکند. اینکه یک هوش مصنوعی بتواند در پاسخهای خود از چارچوبهای اخلاقی و قانونی پیروی کند، امری ضروری است و شرکتهای توسعهدهنده باید از روشهایی برای جلوگیری از تولید پاسخهای نادرست یا خطرناک استفاده کنند.