خرید اقساطی از سایت کارت با کمترین پیش پرداخت

حذف یک مدل به‌خاطر یک اشتباه بزرگ؛ وقتی AI وارد منطقه قرمز سیاست می‌شود


avatar
سجاد نوری
13 آبان 1404 | 4 دقیقه مطالعه

گوگل به‌تازگی مدل هوش مصنوعی Gemma را از پلتفرم AI Studio حذف کرده است؛ تصمیمی که پس از جنجال رسانه‌ای و اعتراض «مارشا بلکبرن» سناتور جمهوری‌خواه صورت گرفت. او در نامه‌ای رسمی به ساندار پیچای اعلام کرده که این مدل، هنگام پاسخ به پرسشی درباره اتهام تجاوز، اطلاعات کاملاً نادرست و بدون مبنای واقعی منتشر کرده است.

در گزارش‌ها آمده که Gemma در پاسخ به سؤال «آیا بلکبرن متهم به تجاوز شده است؟» ادعایی ساختگی مطرح کرده؛ ادعایی که در آن ادعا شده بود یک مامور ایالتی در دوران کمپین انتخاباتی بلکبرن گفته که او را مجبور به تهیه داروهای خاص کرده و رابطه میانشان شامل رفتارهای غیرقانونی بوده است. سناتور آمریکایی صراحتاً اعلام کرده این ادعا‌ها ساختگی است، نه سابقه‌ای در پرونده‌های رسمی دارد، نه سند خبری معتبر پشت آن است؛ حتی لینک‌هایی که مدل برای اثبات آورده بوده، یا وجود خارجی نداشته‌اند یا ارتباطی با موضوع مطرح‌شده نداشتند. همین موضوع باعث شد گوگل فوراً واکنش نشان دهد و این مدل را موقتاً از AI Studio حذف کند تا بررسی و اصلاحات انجام شود.

این اتفاق دقیقاً همان نقطه حساسی است که در آینده بسیار بیشتر با آن مواجه می‌شویم: برخورد مستقیم AI با "افراد واقعی" در فضاهای سیاسی، حقوقی و رسانه‌ای. یک جمله اشتباه، یک لینک غلط، یک ادعای بدون سند، می‌تواند تبدیل به بحران ملی شود. مخصوصاً در آمریکا که فضای انتخاباتی، حزبی، رسانه‌ای و حقوقی فوق‌العاده حساس و جنگی است. مدل‌های هوش مصنوعی باید نه فقط از نظر قدرت پاسخ‌گویی، بلکه از نظر پایبندی سختگیرانه به مرجع‌گرایی واقعی، اعتبارسنجی اطلاعات و رعایت مرزهای حقوقی کنترل شوند. این اتفاق نشان داد که حتی کمپانی‌هایی مثل گوگل هم هنوز به مرحله‌ی «امنیت کامل» در تولیدکننده‌های متن نرسیده‌اند. آینده‌ی هوش مصنوعی فقط درباره خلاقیت و توانایی نیست؛ درباره کنترل، نظارت، و جلوگیری از آسیب هم هست.

جنجال تازه؛ اتهام افترای سیاسی توسط هوش مصنوعی گوگل

در ادامه‌ی حواشی مربوط به حذف مدل Gemma، سناتور «مارشا بلکبرن» در نامه‌ای رسمی به گوگل اعلام کرده که این موضوع تنها به پرونده خودش محدود نمی‌شود. او به نمونه دیگری اشاره کرده که «رابی استارباک» فعال محافظه‌کار، علیه گوگل مطرح کرده بود. طبق ادعای بلکبرن، مدل‌های AI گوگل – از جمله Gemma – اتهامات سنگین، ساختگی و بدون هرگونه سند معتبر علیه استارباک منتشر کرده‌اند؛ اتهاماتی در حد «کودک‌آزاری» و «سوءاستفاده جنسی سریالی» که بدون شک از سطح یک خطای الگوریتمی معمولی فراتر رفته و وارد حوزه «افترا و تخریب شخصیت» می‌شود.

گوگل اما در پاسخ اعلام کرده که Gemma اساساً برای پاسخ‌دهی مستقیم به کاربران عمومی طراحی نشده بوده و هدف آن بیشتر ارائه یک ابزار توسعه برای سازندگان محصولات مختلف بوده است. این شرکت توضیح داد که پس از مشاهده تلاش کاربران عمومی برای استفاده از Gemma داخل AI Studio ، دسترسی آن در این پلتفرم را متوقف کرده، اما همچنان توسعه‌دهندگان می‌توانند از طریق API به آن دسترسی داشته باشند.

این اتفاق نشان می‌دهد که با وجود دستاوردهای قابل توجه در حوزه هوش مصنوعی زبانی، همچنان چالش اطلاعات غلط، سوگیری‌ها، و حتی خطر آسیب‌های حقوقی در سطح جدی باقی مانده است. بلکبرن در پایان تأکید کرده که تا زمان ایجاد ظرفیت کنترل کامل و تضمین صحت خروجی‌ها، دسترسی عمومی به چنین مدل‌هایی باید محدود نگه داشته شود.

این ماجرا یک هشدار بسیار جدی برای آینده است. AI حالا دیگر صرفاً یک ابزار نیست؛ یک نهاد تأثیرگذار رسانه‌ای است که می‌تواند تنها با «چند جمله اشتباه»، به اعتماد عمومی لطمه بزند، بحران حقوقی ایجاد کند، و حتی مسیر یک جریان سیاسی را تغییر دهد. اتفاقاتی از این جنس ثابت می‌کند که جهان هنوز برای آزادسازی کامل مدل‌های زبانی در سطح عموم آماده نیست. توسعه‌ی مدل‌های قدرتمند، بدون سازوکارهای بسیار سختگیرانه‌ی اعتبارسنجی، مثل رها کردن یک رسانه جهانی بدون سردبیر و بدون قانون است. مسیر آینده‌ی هوش مصنوعی فقط رقابت «بهترین و قدرتمندترین» نیست؛ رقابت «مسئولانه‌ترین» هم هست.