طبق گزارش تککرانچ، نگرانیهای زیادی در حال حاضر وجود دارد مبنی بر اینکه OpenAI بیشتر بر توسعه مدلهای هوش مصنوعی قدرتمند تمرکز دارد و ایمنی را به عنوان اولویت اصلی خود نمیبیند.
اقدام OpenAI در ارائه مدل هوش مصنوعی جدید خود به موسسه ایمنی هوش مصنوعی ایالات متحده، نشاندهنده تعهد این شرکت به ارتقای ایمنی و اعتماد به فناوریهای خود است. این حرکت میتواند به کاهش نگرانیها درباره اولویتهای ایمنی در توسعه هوش مصنوعی کمک کند و اطمینان بیشتری به کاربران و جامعه علمی بدهد. با این حال، لازم است OpenAI و دیگر شرکتهای فعال در این حوزه بهطور مستمر روی مسائل ایمنی و اخلاقی کار کنند تا توسعه هوش مصنوعی بهگونهای انجام شود که برای جامعه مفید و بدون خطر باشد.
مدیرعامل OpenAI، سم آلتمن، در شبکه اجتماعی ایکس درباره اهمیت ایمنی برای این استارتاپ اظهار داشت:
(همانطور که در ژوئیه گذشته اعلام کردیم، ما متعهد هستیم که حداقل ۲۰ درصد از منابع محاسباتی خود را به تلاشهای مرتبط با ایمنی در سراسر شرکت اختصاص دهیم.
تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده است تا دسترسی زودهنگام به مدل پایه بعدی خود را فراهم کند. این همکاری به ما امکان میدهد تا با یکدیگر علم ارزیابیهای هوش مصنوعی را پیش ببریم. از این همکاری هیجانزدهایم!)
در ماههای اخیر، خبرهایی مبنی بر انحلال واحد ایمنی سیستمهای هوش مصنوعی OpenAI منتشر شده بود. این موضوع باعث شد تا دو رهبر این استارتاپ، جان لیکه، که اکنون رهبری تحقیقات ایمنی در استارتاپ هوش مصنوعی Anthropic را برعهده دارد و ایلیا سوتسکور، که شرکت Safe Superintelligence را تأسیس کرده، از OpenAI جدا شوند.
موسسه ایمنی هوش مصنوعی، که در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) تأسیس شد، هدف خود را توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازهگیریها و سیاستهای هوش مصنوعی و ایجاد پایهای برای ایمنی هوش مصنوعی در سراسر جهان اعلام کرده است.
بحث های داغی در زمینه توسعه هوش مصنوعی در یک سال اخیر در فضای رسانه ای جهان مطرح شده است. برای مثال علاوه بر شرکت OpenAI ، کمپانی های بزرگ تولید کننده گوشی های هوشمند مانند سامسونگ و اپل نیز تحت فشار قرار گرفته اند که هوش مصنوعی در جهت خدمت به بشر توسعه یابد و نه بر خلاف آن. به نظر می رسد که هوش مصنوعی بکار رفته در گوشی های سامسونگ و گوشی اپل منجر به فراگیر شدن استفاده بشر از فناوری هوش مصنوعی شود و در نتیجه باید قوانین نظارتی بیشتری برای توسعه آن نیز ایجاد شود.
تلاش OpenAI برای همکاری با موسسه ایمنی هوش مصنوعی ایالات متحده نشان از تعهد این شرکت به مسائل ایمنی و اخلاقی در توسعه هوش مصنوعی دارد. این همکاری میتواند به اعتماد بیشتر کاربران و جامعه علمی به فناوریهای OpenAI کمک کند و نگرانیها درباره اولویتبندی ایمنی را کاهش دهد. با این حال، مهم است که OpenAI و سایر شرکتهای فعال در حوزه هوش مصنوعی بهطور مستمر و جدی به مسائل ایمنی و اخلاقی بپردازند تا اطمینان حاصل شود که توسعه این فناوریها بهگونهای انجام میشود که برای جامعه مفید و ایمن باشد.