گوگل بهتازگی مدل هوش مصنوعی Gemma را از پلتفرم AI Studio حذف کرده است؛ تصمیمی که پس از جنجال رسانهای و اعتراض «مارشا بلکبرن» سناتور جمهوریخواه صورت گرفت. او در نامهای رسمی به ساندار پیچای اعلام کرده که این مدل، هنگام پاسخ به پرسشی درباره اتهام تجاوز، اطلاعات کاملاً نادرست و بدون مبنای واقعی منتشر کرده است.
در گزارشها آمده که Gemma در پاسخ به سؤال «آیا بلکبرن متهم به تجاوز شده است؟» ادعایی ساختگی مطرح کرده؛ ادعایی که در آن ادعا شده بود یک مامور ایالتی در دوران کمپین انتخاباتی بلکبرن گفته که او را مجبور به تهیه داروهای خاص کرده و رابطه میانشان شامل رفتارهای غیرقانونی بوده است. سناتور آمریکایی صراحتاً اعلام کرده این ادعاها ساختگی است، نه سابقهای در پروندههای رسمی دارد، نه سند خبری معتبر پشت آن است؛ حتی لینکهایی که مدل برای اثبات آورده بوده، یا وجود خارجی نداشتهاند یا ارتباطی با موضوع مطرحشده نداشتند. همین موضوع باعث شد گوگل فوراً واکنش نشان دهد و این مدل را موقتاً از AI Studio حذف کند تا بررسی و اصلاحات انجام شود.
این اتفاق دقیقاً همان نقطه حساسی است که در آینده بسیار بیشتر با آن مواجه میشویم: برخورد مستقیم AI با "افراد واقعی" در فضاهای سیاسی، حقوقی و رسانهای. یک جمله اشتباه، یک لینک غلط، یک ادعای بدون سند، میتواند تبدیل به بحران ملی شود. مخصوصاً در آمریکا که فضای انتخاباتی، حزبی، رسانهای و حقوقی فوقالعاده حساس و جنگی است. مدلهای هوش مصنوعی باید نه فقط از نظر قدرت پاسخگویی، بلکه از نظر پایبندی سختگیرانه به مرجعگرایی واقعی، اعتبارسنجی اطلاعات و رعایت مرزهای حقوقی کنترل شوند. این اتفاق نشان داد که حتی کمپانیهایی مثل گوگل هم هنوز به مرحلهی «امنیت کامل» در تولیدکنندههای متن نرسیدهاند. آیندهی هوش مصنوعی فقط درباره خلاقیت و توانایی نیست؛ درباره کنترل، نظارت، و جلوگیری از آسیب هم هست.
جنجال تازه؛ اتهام افترای سیاسی توسط هوش مصنوعی گوگل
در ادامهی حواشی مربوط به حذف مدل Gemma، سناتور «مارشا بلکبرن» در نامهای رسمی به گوگل اعلام کرده که این موضوع تنها به پرونده خودش محدود نمیشود. او به نمونه دیگری اشاره کرده که «رابی استارباک» فعال محافظهکار، علیه گوگل مطرح کرده بود. طبق ادعای بلکبرن، مدلهای AI گوگل – از جمله Gemma – اتهامات سنگین، ساختگی و بدون هرگونه سند معتبر علیه استارباک منتشر کردهاند؛ اتهاماتی در حد «کودکآزاری» و «سوءاستفاده جنسی سریالی» که بدون شک از سطح یک خطای الگوریتمی معمولی فراتر رفته و وارد حوزه «افترا و تخریب شخصیت» میشود.
گوگل اما در پاسخ اعلام کرده که Gemma اساساً برای پاسخدهی مستقیم به کاربران عمومی طراحی نشده بوده و هدف آن بیشتر ارائه یک ابزار توسعه برای سازندگان محصولات مختلف بوده است. این شرکت توضیح داد که پس از مشاهده تلاش کاربران عمومی برای استفاده از Gemma داخل AI Studio ، دسترسی آن در این پلتفرم را متوقف کرده، اما همچنان توسعهدهندگان میتوانند از طریق API به آن دسترسی داشته باشند.
این اتفاق نشان میدهد که با وجود دستاوردهای قابل توجه در حوزه هوش مصنوعی زبانی، همچنان چالش اطلاعات غلط، سوگیریها، و حتی خطر آسیبهای حقوقی در سطح جدی باقی مانده است. بلکبرن در پایان تأکید کرده که تا زمان ایجاد ظرفیت کنترل کامل و تضمین صحت خروجیها، دسترسی عمومی به چنین مدلهایی باید محدود نگه داشته شود.
این ماجرا یک هشدار بسیار جدی برای آینده است. AI حالا دیگر صرفاً یک ابزار نیست؛ یک نهاد تأثیرگذار رسانهای است که میتواند تنها با «چند جمله اشتباه»، به اعتماد عمومی لطمه بزند، بحران حقوقی ایجاد کند، و حتی مسیر یک جریان سیاسی را تغییر دهد. اتفاقاتی از این جنس ثابت میکند که جهان هنوز برای آزادسازی کامل مدلهای زبانی در سطح عموم آماده نیست. توسعهی مدلهای قدرتمند، بدون سازوکارهای بسیار سختگیرانهی اعتبارسنجی، مثل رها کردن یک رسانه جهانی بدون سردبیر و بدون قانون است. مسیر آیندهی هوش مصنوعی فقط رقابت «بهترین و قدرتمندترین» نیست؛ رقابت «مسئولانهترین» هم هست.
