ظاهراً مدل هوش مصنوعی GPT-4o با عجله رونمایی شده است!

به گفته یکی از کارکنان ناشناس OpenAI، این شرکت آزمایش‌های ایمنی GPT-4o را با عجله انجام داده و قبل از اطمینان کامل از ایمنی این مدل، آن را معرفی کرده است. این فرد ادعا می‌کند که در اولین آزمایش ایمنی این مدل پیشرفته، شکست خورده‌اند.


avatar
زهرا حسینی
24 تیر 1403 | 4 دقیقه مطالعه
ظاهراً مدل هوش مصنوعی GPT-4o با عجله رونمایی شده است!

 

یک کارمند ناشناس OpenAI به واشنگتن پست گفته است: “قبل از اینکه مطمئن شویم این مدل [GPT-4o] ایمن است، برنامه رونمایی آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.” او معتقد است که OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرده است.

با این حال، سخنگوی OpenAI به واشنگتن پست گفت که عرضه GPT-4o باعث نشده توجه به نکات ایمنی کاهش یابد. اما منبع ناشناس اذعان می‌کند که جدول زمانی بررسی ایمنی این مدل به یک هفته فشرده شده بود.

عجله در عرضه محصولات پیشرفته‌ای مانند GPT-4o می‌تواند نگرانی‌های جدی درباره ایمنی و عملکرد آن‌ها ایجاد کند. با توجه به اهمیت هوش مصنوعی در زندگی روزمره و تأثیرات گسترده آن، اطمینان از ایمنی و عملکرد صحیح این مدل‌ها باید اولویت اصلی باشد. اگرچه OpenAI ممکن است به دلیل فشارهای رقابتی و انتظارات بازار عجله کرده باشد، اما توجه به نکات ایمنی و انجام آزمایش‌های کامل و دقیق از اهمیت بسیاری برخوردار است. اطمینان از ایمنی هوش مصنوعی نه تنها به نفع کاربران بلکه به نفع توسعه‌دهندگان و آینده فناوری نیز خواهد بود.

اخیرا نیز اخباری درخصوص توسعه هوش مصنوعی OpenAI  برای استفاده در دانشگاه ها منتشر شده بود که به نظر می رسد که توسعه چنین پروژه ای نیاز به بازنگری جدی توسط مدیران این شرکت خواهد داشت تا موجب تولید اطلاعات اشتباه در محافل علمی نشود. 

نقض ایمنی هوش مصنوعی در OpenAI

نقض ایمنی هوش مصنوعی در OpenAI

ایمنی یکی از اصول کلیدی منشور OpenAI است. در این منشور آمده که اگر سایر سازمان‌های رقیب به هوش جامع مصنوعی (AGI) دست یابند، OpenAI به جای رقابت، به آن‌ها کمک خواهد کرد تا ایمنی این فناوری را بهبود بخشند. علاوه بر این، OpenAI اعلام کرده که به دلایل ایمنی، مدل‌های اختصاصی خود را به صورت متن‌باز منتشر نخواهد کرد.

با این حال، اخیراً نگرانی‌ها در مورد نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعه‌دهندگان مدل‌های بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه پیش اعلام کرد: “توسعه هوش مصنوعی پیشتاز فعلی، خطرات فوری و فزاینده‌ای برای امنیت ملی ایجاد می‌کند. ظهور هوش مصنوعی پیشرفته و AGI می‌تواند امنیت جهانی را به نحوی بی‌ثبات کند که مشابه معرفی سلاح‌های هسته‌ای است.”

پیش از این نیز، یان لیکه، یکی از محققان امنیت هوش مصنوعی OpenAI، هنگام استعفا گفته بود که در سال‌های اخیر، فرهنگ و فرآیند ایمنی‌سازی هوش مصنوعی در این شرکت جای خود را به عرضه محصولات پرزرق‌وبرق داده است. همچنین، کارمندان فعلی و سابق OpenAI اخیراً نامه‌ای امضا کرده‌اند که در آن از این شرکت خواسته‌اند تا اقدامات ایمنی بهتری را در پیش گیرد.

توجه به ایمنی در توسعه هوش مصنوعی از اهمیت بالایی برخوردار است، به‌ویژه وقتی که این فناوری پتانسیل تغییرات عمیق و بی‌ثباتی در امنیت جهانی را دارد. OpenAI با اصول منشور خود تلاش می‌کند تا اطمینان حاصل کند که پیشرفت‌های هوش مصنوعی به طور ایمن و مسئولانه انجام می‌شود. با این حال، گزارش‌های اخیر و نگرانی‌های کارکنان نشان می‌دهد که ممکن است در عمل به این اصول، کوتاهی‌هایی صورت گرفته باشد. بهبود و تقویت اقدامات ایمنی باید اولویت اصلی هر توسعه‌دهنده هوش مصنوعی باشد تا از تاثیرات منفی احتمالی جلوگیری کند و اعتماد عمومی را حفظ نماید.

همان طور که برای همه مشخص شده است، هوش مصنوعی رفته رفته به یکی از موضوعات کاربردی در زندگی روزمره انسان تبدیل شده است. استفاده از هوش مصنوعی در گوشی های هوشمند سامسونگ و گوشی های اپل و رقابت این برند ها با برندهای چینی مانند شیائومی نیز باعث شده است که شاهد نوآوری های چشمگیری در رشد هوش مصنوعی باشیم. بنابراین انتظار می رود که نظارت دقیق تری بر روی توسعه این فناوری توسط انجمن ها و دولت های مختلف شکل بگیرد تا از مضرات آتی آنها جلوگیری شود. 

ثبت دیدگاه شما
دیدگاهی یافت نشد