تیمی تحقیقاتی در مایکروسافت هشدار داده است که هوش مصنوعی میتواند باعث ظهور آسیبپذیریهای «روز صفر» در سیستمهای زیست امنیتی شود. این سیستمها برای جلوگیری از سوءاستفاده از توالیهای DNA طراحی شدهاند تا امکان تولید سموم کشنده یا پاتوژنها محدود شود. با این حال، پژوهشگران به رهبری اریک هورویتز، دانشمند ارشد مایکروسافت، موفق شدهاند راهی برای دور زدن این محافظتها پیدا کنند؛ راهی که پیش از این برای مدافعان سیستم ناشناخته بود. نتایج این تحقیق در نشریه Science منتشر شده و در دسترس عموم قرار دارد.
هورویتز و تیمش روی الگوریتمهای هوش مصنوعی مولد تمرکز کردهاند که قادر به پیشنهاد اشکال جدید پروتئینها هستند. این نوع برنامهها پیشتر برای استارتاپهای دارویی مانند Generate Biomedicines و Isomorphic Labs برای کشف داروهای نوین استفاده میشدند. با این حال، تحقیقات مایکروسافت نشان میدهد که همین فناوری میتواند در دست افراد نادرست به تهدیدهای زیستشناسی و امنیتی تبدیل شود.
این یافته هشدار مهمی درباره دو رویی هوش مصنوعی در زیستشناسی است؛ در حالی که این تکنولوژی میتواند نوآوریهای دارویی و پزشکی را تسریع کند، همان ابزار میتواند خطرات جدی برای امنیت زیستی ایجاد کند. آینده هوش مصنوعی در زیستشناسی نیازمند مقررات دقیق و نظارت شفاف است تا هم پیشرفت علمی امکانپذیر باشد و هم تهدیدهای بالقوه کنترل شوند.
وقتی ابزارهای هوش مصنوعی هم دو لبه میشوند: خطراتِ کاربرد دوگانه در زیستامنیت
سیستمهای مبتنی بر هوش مصنوعی که برای طراحی پروتئین یا مولکولهای جدید بهکار میروند، یک پیچیدگی جدی دارند: دادههای آموزشی و الگوریتمهایشان میتوانند هم راهنما برای خلق راهحلهای درمانی مفید باشند و هم — در دست افراد مخرب — به تولید مولکولهای زیانبار منجر شوند. این همان «قابلیت کاربرد دوگانه» است که مایکروسافت را بر آن داشت تا در سال ۲۰۲۳ یک آزمایش شبیهسازیشده (رد-تیمینگ) اجرا کند و ببیند آیا هوش مصنوعی قادر است طراحی پروتئینهای خصمانه را تسهیل کند یا خیر.
هدف این بررسی، آزمودن کارآیی نرمافزارهای غربالگری زیستامنیتی بود — ابزارهایی که فروشندگان توالیهای DNA از آنها برای مقایسه سفارشها با فهرست توالیهای مرتبط با سموم یا پاتوژنها استفاده میکنند و در صورت تطابق نزدیک هشدار میدهند. پژوهشگران مایکروسافت تأکید کردهاند که آزمایش کاملاً دیجیتال باقی ماند و هیچگونه پروتئینی تولید یا سنتز نشده تا نگرانی از ساخت تسلیحات بیولوژیک پیش نیاید. همچنین پیش از انتشار نتایج، این شرکت موضوع را با مقامهای دولتی آمریکا و سازندگان نرمافزار در میان گذاشته است. با این حال، گزارشها نشان میدهد برخی مولکولهای طراحیشده توسط هوش مصنوعی هنوز ممکن است بتوانند از سدِ شناسایی عبور کنند.
این یافته یادآورِ آن است که پیشرفتهای فناورانه همیشه یکطرفه نیستند؛ همان ابزاری که نوید تسریع کشف دارو و درمانهای جدید را میدهد، میتواند در غیاب چارچوبهای نظارتی و مکانیزمهای ایمنی قوی به تهدیدات جدی تبدیل شود. لازم است توسعهدهندگان، نهادهای نظارتی و جامعه علمی با هم سازوکارهای شفاف و اصول اخلاقیِ الزامآور تعریف کنند تا هم از منافع پزشکی این فناوریها بهره ببریم و هم خطرات بالقوه را به حداقل برسانیم.
