سرگئی برین، یکی از بنیانگذاران گوگل، در اظهارنظری غیرمنتظره عنوان کرده است که میتوان با تهدید کردن مدلهای هوش مصنوعی، خروجیهای بهتری از آنها دریافت کرد. او در گفتوگویی با پادکست All-In توضیح داده که نهفقط مدلهای توسعهیافته توسط گوگل، بلکه همه مدلها در واکنش به تهدید، پاسخهای دقیقتری میدهند. برین حتی با لحنی طنزآلود، به تهدید فیزیکی اشاره کرده و اذعان داشته که این پیشنهاد به دلیل بار منفی روانی و اجتماعیاش، تاکنون بهطور رسمی مطرح نشده است. به گفته او، مدلهای هوش مصنوعی طی آموزش، ارتباط میان «تهدید» و «اهمیت وظیفه» را درک کردهاند و همین باعث بهبود کارکردشان در موقعیتهایی میشود که «جدیت» از سوی کاربر احساس میشود.
اگرچه این اظهارنظر میتواند جنبهای طنزآمیز یا تجربی داشته باشد، اما بیان آن از سوی شخصیتی تأثیرگذار مانند برین، بحثبرانگیز است. این رویکرد میتواند سوءبرداشتهایی در استفاده از ابزارهای هوش مصنوعی ایجاد کند و کاربران را به سوی روشهای نادرست هدایت کند. در واقع، تهدید بهعنوان یک تکنیک تعامل با هوش مصنوعی نهتنها اخلاقی نیست، بلکه ممکن است مسیر آموزش و توسعه مدلها را نیز به انحراف بکشاند. به جای تهدید، بهتر است بر ارتقای مهارت «پرومپتنویسی» و شناخت دقیقتر ظرفیت مدلها تمرکز شود.
شوخی جدی با هوش مصنوعی: وقتی تهدید، محرک عملکرد میشود
در یکی از قسمتهای اخیر یک پادکست پرمخاطب، یکی از شرکتکنندگان با لحنی طنز گفت اگر به هوش مصنوعی «بیادبی» کنید، بهتر برایتان کار میکند! سرگئی برین، همبنیانگذار گوگل نیز در واکنش به این حرف، ضمن تأیید آن بهطور نیمهجدی بیان کرد که تهدید کردن مدلهای هوش مصنوعی باعث بهبود پاسخدهی آنها میشود. با این حال، روشن نیست که چنین ادعایی پایه علمی یا عملی دارد. در همین راستا، یکی از کارمندان شرکت آنتروپیک – سازنده مدلهای جدید Claude 4 – اعلام کرده که نسخه Opus میتواند در مواجهه با دستورات مشکوک یا غیراخلاقی، اقدام به گزارش کاربر و حتی مسدودسازی حساب کند. این قابلیت فعلاً در فاز آزمایشی قرار دارد، اما احتمال عملیاتی شدن آن در آینده وجود دارد.
اگرچه این نوع صحبتها ممکن است در بستر طنز و تجربههای شخصی مطرح شوند، اما باید مراقب بود که چنین توصیههایی بهعنوان روشهای جدی در تعامل با هوش مصنوعی جا نیفتد. تهدید کردن مدلها نهتنها از لحاظ اخلاقی زیر سؤال است، بلکه ممکن است در آینده تبعاتی برای کاربران بههمراه داشته باشد؛ بهویژه با توسعه سامانههای نظارتی داخلی در مدلهای پیشرفته. واقعیت این است که مسیر درست تعامل با هوش مصنوعی، نه در بازی با مرزهای تهدید و تخلف، بلکه در تسلط بر مهارتهای پرامپتنویسی هدفمند و اصولی نهفته است.