یک کارمند ناشناس OpenAI به واشنگتن پست گفته است: “قبل از اینکه مطمئن شویم این مدل [GPT-4o] ایمن است، برنامه رونمایی آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.” او معتقد است که OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرده است.
با این حال، سخنگوی OpenAI به واشنگتن پست گفت که عرضه GPT-4o باعث نشده توجه به نکات ایمنی کاهش یابد. اما منبع ناشناس اذعان میکند که جدول زمانی بررسی ایمنی این مدل به یک هفته فشرده شده بود.
عجله در عرضه محصولات پیشرفتهای مانند GPT-4o میتواند نگرانیهای جدی درباره ایمنی و عملکرد آنها ایجاد کند. با توجه به اهمیت هوش مصنوعی در زندگی روزمره و تأثیرات گسترده آن، اطمینان از ایمنی و عملکرد صحیح این مدلها باید اولویت اصلی باشد. اگرچه OpenAI ممکن است به دلیل فشارهای رقابتی و انتظارات بازار عجله کرده باشد، اما توجه به نکات ایمنی و انجام آزمایشهای کامل و دقیق از اهمیت بسیاری برخوردار است. اطمینان از ایمنی هوش مصنوعی نه تنها به نفع کاربران بلکه به نفع توسعهدهندگان و آینده فناوری نیز خواهد بود.
اخیرا نیز اخباری درخصوص توسعه هوش مصنوعی OpenAI برای استفاده در دانشگاه ها منتشر شده بود که به نظر می رسد که توسعه چنین پروژه ای نیاز به بازنگری جدی توسط مدیران این شرکت خواهد داشت تا موجب تولید اطلاعات اشتباه در محافل علمی نشود.
نقض ایمنی هوش مصنوعی در OpenAI
ایمنی یکی از اصول کلیدی منشور OpenAI است. در این منشور آمده که اگر سایر سازمانهای رقیب به هوش جامع مصنوعی (AGI) دست یابند، OpenAI به جای رقابت، به آنها کمک خواهد کرد تا ایمنی این فناوری را بهبود بخشند. علاوه بر این، OpenAI اعلام کرده که به دلایل ایمنی، مدلهای اختصاصی خود را به صورت متنباز منتشر نخواهد کرد.
با این حال، اخیراً نگرانیها در مورد نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعهدهندگان مدلهای بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه پیش اعلام کرد: “توسعه هوش مصنوعی پیشتاز فعلی، خطرات فوری و فزایندهای برای امنیت ملی ایجاد میکند. ظهور هوش مصنوعی پیشرفته و AGI میتواند امنیت جهانی را به نحوی بیثبات کند که مشابه معرفی سلاحهای هستهای است.”
پیش از این نیز، یان لیکه، یکی از محققان امنیت هوش مصنوعی OpenAI، هنگام استعفا گفته بود که در سالهای اخیر، فرهنگ و فرآیند ایمنیسازی هوش مصنوعی در این شرکت جای خود را به عرضه محصولات پرزرقوبرق داده است. همچنین، کارمندان فعلی و سابق OpenAI اخیراً نامهای امضا کردهاند که در آن از این شرکت خواستهاند تا اقدامات ایمنی بهتری را در پیش گیرد.
توجه به ایمنی در توسعه هوش مصنوعی از اهمیت بالایی برخوردار است، بهویژه وقتی که این فناوری پتانسیل تغییرات عمیق و بیثباتی در امنیت جهانی را دارد. OpenAI با اصول منشور خود تلاش میکند تا اطمینان حاصل کند که پیشرفتهای هوش مصنوعی به طور ایمن و مسئولانه انجام میشود. با این حال، گزارشهای اخیر و نگرانیهای کارکنان نشان میدهد که ممکن است در عمل به این اصول، کوتاهیهایی صورت گرفته باشد. بهبود و تقویت اقدامات ایمنی باید اولویت اصلی هر توسعهدهنده هوش مصنوعی باشد تا از تاثیرات منفی احتمالی جلوگیری کند و اعتماد عمومی را حفظ نماید.
همان طور که برای همه مشخص شده است، هوش مصنوعی رفته رفته به یکی از موضوعات کاربردی در زندگی روزمره انسان تبدیل شده است. استفاده از هوش مصنوعی در گوشی های هوشمند سامسونگ و گوشی های اپل و رقابت این برند ها با برندهای چینی مانند شیائومی نیز باعث شده است که شاهد نوآوری های چشمگیری در رشد هوش مصنوعی باشیم. بنابراین انتظار می رود که نظارت دقیق تری بر روی توسعه این فناوری توسط انجمن ها و دولت های مختلف شکل بگیرد تا از مضرات آتی آنها جلوگیری شود.