OpenAI در تازهترین هشدار امنیتی خود اعلام کرده مرورگرهای مبتنی بر هوش مصنوعی همچنان در معرض حملات موسوم به «تزریق پرامپت» قرار دارند؛ تهدیدی که حتی با تقویت لایههای امنیتی مرورگر ChatGPT Atlas نیز احتمال حذف کامل آن بسیار پایین است. به گفته این شرکت، ماهیت این نوع حمله بهگونهای است که نمیتوان بهسادگی آن را مهار کرد.
تزریق پرامپت به مهاجمان اجازه میدهد عاملهای هوش مصنوعی را به اجرای دستورهای ناخواسته یا مخرب وادار کنند؛ دستورهایی که معمولاً بهصورت پنهان در محتوای وبسایتها یا حتی ایمیلها جاسازی میشوند. این مسئله نشان میدهد تعامل ایمن عاملهای هوش مصنوعی با اینترنت آزاد همچنان با چالشهای جدی روبهروست. OpenAI در یک پست وبلاگی جدید تأکید کرده که Prompt Injection شباهت زیادی به کلاهبرداریها و مهندسی اجتماعی دارد و همانند آنها، احتمالاً هیچگاه بهطور کامل ریشهکن نخواهد شد. همچنین فعالسازی حالت Agent Mode در ChatGPT Atlas میتواند سطح ریسک امنیتی را افزایش دهد.
تزریق پرامپت یک تهدید دائمی است
مرورگر ChatGPT Atlas که در ماه اکتبر عرضه شد، خیلی زود توجه پژوهشگران امنیتی را به خود جلب کرد. آنها نشان دادند حتی درج چند عبارت ساده در محیطی مانند گوگل داکس میتواند رفتار این مرورگر هوشمند را تغییر دهد. همزمان، شرکت Brave نیز هشدار داد که تزریق پرامپت غیرمستقیم به یک مشکل ساختاری در مرورگرهای مبتنی بر هوش مصنوعی، از جمله Perplexity Comet، تبدیل شده است.
از سوی دیگر، مرکز امنیت سایبری بریتانیا نیز اعلام کرده این حملات احتمالاً هرگز بهطور کامل مهار نخواهند شد و میتوانند زمینهساز نشت داده در وبسایتها شوند. به همین دلیل، کارشناسان توصیه میکنند تمرکز اصلی بهجای حذف کامل تهدید، بر کاهش پیامدها و مدیریت ریسکها باشد.
هشدار OpenAI نشان میدهد هرچه مرورگرها و عاملهای هوش مصنوعی مستقلتر و قدرتمندتر میشوند، سطح حملات نیز پیچیدهتر خواهد شد. به نظر میرسد در این مسیر، انتظار امنیت صددرصدی چندان واقعبینانه نیست و کاربران باید بپذیرند که هوش مصنوعی، همانند انسان، میتواند فریب بخورد. آینده امنتر این فناوری نه در حذف کامل تهدیدها، بلکه در شفافیت بیشتر، محدودسازی دسترسیها و آموزش کاربران برای استفاده آگاهانه خلاصه میشود.
امنیت در برابر هوش مصنوعی مهاجم؛ استراتژی OpenAI برای جلوتر ماندن از تهدیدها
OpenAI این موضوع را یک چالش امنیتی بلندمدت میداند و معتقد است تنها راه مقابله با آن، تقویت پیوسته و بدون توقف لایههای دفاعی است. رویکرد این شرکت بر پایه یک چرخه واکنش سریع و پیشدستانه شکل گرفته؛ چرخهای که هدف آن شناسایی روشهای نوظهور حملات سایبری پیش از آن است که در دنیای واقعی مورد استفاده قرار گیرند.
در همین راستا، یکی از ابزارهای کلیدی OpenAI «مهاجم خودکار مبتنی بر مدلهای زبانی بزرگ» است؛ سیستمی که با یادگیری تقویتی آموزش دیده و عملاً در نقش یک هکر عمل میکند. این ابزار تلاش میکند دستورات مخرب را به عاملهای هوش مصنوعی تزریق کند، حمله را ابتدا در محیط شبیهسازی اجرا کند، واکنش سیستم هدف را بسنجد و سپس با اصلاح روشها، دوباره حمله را تکرار کند. چنین فرآیندی کمک میکند نقاط ضعف پیش از آنکه مهاجمان واقعی به آنها برسند، شناسایی شوند.
در کنار این اقدامات فنی، OpenAI به کاربران نیز هشدار داده است که هنگام استفاده از عاملهای هوش مصنوعی، دستورالعملهای شفاف و محدود ارائه دهند و از اعطای دسترسی کامل به ایمیلها یا دادههای حساس خودداری کنند. آزادی عمل بیشازحد، حتی در حضور سازوکارهای امنیتی پیشرفته، میتواند ایجنتها را در برابر محتوای مخرب آسیبپذیر کند. هرچند محافظت کامل در برابر تزریق پرامپت تقریباً غیرممکن به نظر میرسد، اما OpenAI با آزمایشهای گسترده و بهروزرسانیهای سریع تلاش میکند فاصله خود را با تهدیدهای واقعی حفظ کند. در همین حال، برخی تحلیلگران معتقدند مرورگرهای عاملمحور هنوز مزایای قانعکنندهای ارائه نمیدهند که ریسک دسترسی به دادههای حساس را توجیه کند و ایجاد تعادل میان سودمندی و خطر، همچنان مسئلهای حلنشده باقی مانده است.
استفاده OpenAI از «هوش مصنوعی در نقش مهاجم» رویکردی هوشمندانه و آیندهنگرانه است، اما در عین حال نشان میدهد میدان نبرد امنیتی وارد مرحلهای پیچیدهتر شده است. وقتی دفاع و حمله هر دو به ابزارهای مبتنی بر هوش مصنوعی مجهز شوند، خطاهای کوچک میتوانند هزینههای بزرگی به همراه داشته باشند. به نظر میرسد تا زمانی که ارزش عملی مرورگرهای عاملمحور بهطور ملموس افزایش نیابد، احتیاط در واگذاری دسترسی به دادههای حساس همچنان منطقیترین انتخاب برای کاربران خواهد بود.
