در بیانیه معرفی این همکاری، CoSAI بهعنوان یک ابتکار منبع باز توصیف شده که هدف آن ارائه راهنمایی و ابزارهای لازم برای ساخت سیستمهای هوش مصنوعی امن توسط تمام متخصصان و توسعهدهندگان است.
تشکیل ائتلاف CoSAI نشاندهنده تعهد جدی شرکتهای بزرگ فناوری به ایجاد و حفظ امنیت در توسعه و استفاده از هوش مصنوعی است. این همکاری میتواند بهطور قابل توجهی به بهبود استانداردهای امنیتی در صنعت هوش مصنوعی کمک کند و با ارائه ابزارهای منبع باز، امکان دسترسی همهجانبه به این فناوریها را فراهم آورد.
این حرکت نه تنها موجب ارتقای امنیت میشود، بلکه میتواند همکاری و تبادل دانش بین شرکتها و توسعهدهندگان را تقویت کند، که در نهایت به نفع کل جامعه هوش مصنوعی خواهد بود.
نظر غولهای فناوری در حمایت از امنیت هوش مصنوعی
ائتلاف CoSAI شامل طیف گستردهای از ذینفعان است که رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشناسان مختلف را در بر میگیرد و بر امنیت هوش مصنوعی تمرکز دارد. حامیان اصلی تاسیس این ائتلاف شامل شرکتهایی نظیر گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پیپل هستند.
در متن بیانیه این همکاری آمده است: (هوش مصنوعی بهسرعت در حال تغییر دنیای ماست و پتانسیل زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و توسعه مسئولانه آن، بسیار مهم است که تکنیکهایی را توسعه و به اشتراک بگذاریم که بر امنیت تمرکز دارند، آسیبپذیریهای احتمالی سیستمهای هوش مصنوعی را شناسایی و کاهش میدهند و سیستمهایی با طراحی امن ایجاد میکنند.)
در انتهای بیانیه نیز نظر برخی مدیران غولهای فناوری درباره این ابتکار آورده شده است. «هدر ادکینز»، معاون امنیتی گوگل، در حمایت از CoSAI میگوید:
( CoSAI به سازمانهای بزرگ و کوچک کمک میکند تا هوش مصنوعی را بهطور ایمن و مسئولانه به ابزارهای خود اضافه کنند. این ائتلاف به آنها کمک میکند تا از مزایای هوش مصنوعی بهرهمند شوند و در عین حال خطرات آن را کاهش دهند.)
مایکروسافت نیز که ماه گذشته اعلام کرده بود امنیت حتی از هوش مصنوعی برای آن مهمتر است، در این بیانیه یکبار دیگر به تعهد خود برای تمرکز بر امنیت در فرایند توسعه سیستمهای هوش مصنوعی تأکید کرده است.
تشکیل ائتلاف CoSAI نشاندهنده تلاشهای جدی و هماهنگ برای ایجاد امنیت در حوزه هوش مصنوعی است. این همکاری میان شرکتهای بزرگ فناوری و دانشگاهیان، نشان از اهمیت بالای امنیت در توسعه هوش مصنوعی دارد. با توجه به سرعت پیشرفت فناوری و پیچیدگیهای روزافزون آن، ایجاد و بهکارگیری تکنیکهای امنیتی برای محافظت از سیستمهای هوش مصنوعی ضروری است. این اقدام میتواند اعتماد عمومی را به هوش مصنوعی افزایش داده و مسیر را برای نوآوریهای مسئولانه هموار کند.
اگر امنیت هوش مصنوعی جدی گرفته نشود عملا با یک ضعف امنیتی در گوشی های هوشمند نیز روبرو خواهیم بود. چرا که تقریبا تمام گوشی های هوشمند سامسونگ ، گوشی های اپل و همچنین گوشی های شیائومی از سال گذشته مجهز به هوشمصنوعی هستند و در نتیجه اگر این موضوع جدی گرفته نشود ممکن است به کاربران زیادی خسارت وارد شود.