مایکروسافت با انتشار گزارشی جدید، به شرح اقداماتی میپردازد که در سال گذشته برای توسعه هوش مصنوعی مسئولانه خود انجام داده است. این گزارش که اغلب به سال 2023 توجه دارد، دستاوردهایش را در زمینه ایمنی محصولات هوش مصنوعی بیان میکند. این اقدام، به عنوان یکی از تعهداتی است که مایکروسافت و سایر شرکتها پس از امضای توافقنامه با کاخ سفید در جولای سال گذشته انجام دادهاند. طبق این توافقنامه، شرکتها متعهد شدهاند که سیستمهای هوش مصنوعی خود را به طور مسئولانه توسعه دهند و از ایمنی آنها مطمئن شوند.
در گزارش خود، مایکروسافت اعلام کرده که در سال گذشته، 30 ابزار هوش مصنوعی مسئولانه تولید کرده و تیم مربوطه را گسترش داده است. همچنین، تیمهایی را برای اندازهگیری خطرات برنامههای کاربردی هوش مصنوعی در طول دوره توسعه آنها مسئول ساخته است. از طرف دیگر، مایکروسافت از سیستم Content Credentials برای اطمینان از مشخص شدن ساخت عکسها توسط هوش مصنوعی استفاده میکند.
این شرکت همچنین به مشتریان خود ابزارهایی را ارائه میدهد تا بتوانند محتوای مشکلساز مانند محتوای جنسی و آسیبرسان را تشخیص دهند. همچنین، ابزارهایی برای ارزیابی خطرات امنیتی در دسترسی آنها قرار گرفته است.
برای تقویت تلاشهای خود، مایکروسافت تشکیل “تیم قرمز” را آغاز کرده است، که برنامههای آن شامل کشف نقصهای امنیتی در مدلهای هوش مصنوعی و تست قابلیتهای مدلهای جدید پیش از عرضه آنها است.
ناتاشا کرامپتون، مدیر بخش هوش مصنوعی مسئولانه مایکروسافت، اظهار داشته که هوش مصنوعی همچنان در حال پیشرفت است و مایکروسافت تمایل دارد به پیشبرد این پیشرفت ادامه دهد. او اظهار کرده که “هوش مصنوعی مسئول هیچ خط پایانی ندارد” و مایکروسافت مصمم است که به این ایده ها پایبند باشد و همچنان در تلاش برای بهبود و توسعه هوش مصنوعی مسئولانه باشد.
هوش مصنوعی در سال های اخیر به یک چالش جدی برای کل کشورهای جهان تبدیل شده است و بسیاری از عموم مردم حتی معتقد هستند که باید در مقابل توسعه بی قانون هوش مصنوعی تمهیداتی از سوی دولت ها اتفاق بیفتد.
پیشنهاد مطالعه
توسعه ابزار جدید هوش مصنوعی توسط یوتیوب