در پی افزایش اعتراضها از سوی هنرمندان و سلبریتیها نسبت به استفادهی غیرمجاز از چهره و صدای آنها در ویدیوهای تولیدشده با هوش مصنوعی، شرکت OpenAI تصمیم گرفته است محدودیتهای بیشتری برای پلتفرم تولید ویدیوی خود، Sora، اعمال کند. بر اساس گزارشها، پس از عرضهی نسخهی دوم Sora، نگرانیهای زیادی از سوی بازیگران، استودیوها و اتحادیهی بازیگران آمریکا (SAG-AFTRA) دربارهی گسترش ویدیوهای دیپفیک مطرح شد. این واکنشها بهویژه پس از انتشار ویدیوهایی از بازیگر سرشناس برایان کرانستون – از جمله کلیپی ساختگی از او در حال گرفتن سلفی با «مایکل جکسون» – شدت گرفت.
در بیانیهای مشترک که توسط کرانستون، OpenAI و اتحادیهی بازیگران منتشر شد، تأکید شده است که نسخهی جدید Sora شامل کنترلهای دقیقتر بر شبیهسازی صدا و چهره خواهد بود. این تغییرات تضمین میکنند که هیچکس بدون رضایت رسمی و صریح افراد قادر به تولید محتوای تصویری یا صوتی از آنها نباشد؛ اقدامی در جهت حفاظت از حریم شخصی و حقوق حرفهای هنرمندان.
این تصمیم OpenAI را میتوان گامی مهم و مسئولانه در مسیر استفادهی اخلاقی از هوش مصنوعی دانست. با اینکه فناوریهایی مانند Sora مرزهای خلاقیت را گسترش میدهند، اما در غیاب نظارت و قوانین روشن، میتوانند به ابزارهایی برای سوءاستفاده و جعل واقعیت تبدیل شوند. واکنش OpenAI به فشار جامعهی هنری نشان میدهد که عصر هوش مصنوعی، دیگر تنها عرصهی نوآوری فنی نیست؛ بلکه میدان تازهای برای تعریف دوبارهی اخلاق، مالکیت و اعتماد دیجیتال است. حفظ تعادل میان آزادی خلاقیت و حفظ کرامت انسانی، آزمونی است که آیندهی فناوری را رقم خواهد زد.

عذرخواهی OpenAI و وعدهی حفاظت قویتر از حقوق هنرمندان در Sora
در بیانیهای مشترک که توسط OpenAI، چندین بازیگر سرشناس و آژانسهای هنری بزرگ امضا شده، این شرکت بابت انتشار ناخواستهی محتوای ساختگی و دیپفیک عذرخواهی رسمی کرده و متعهد شده است از تکرار چنین مواردی جلوگیری کند. در میان امضاکنندگان این بیانیه نام سازمانهای معتبری همچون United Talent Agency، Creative Artists Agency و Association of Talent Agents نیز دیده میشود؛ نهادهایی که پیشتر نسبت به ضعف حمایت از حقوق هنرمندان در فناوریهای هوش مصنوعی هشدار داده بودند.
OpenAI در این بیانیه تأکید کرده که افراد و هنرمندان کنترل کامل بر استفاده از تصویر و صدای خود در Sora خواهند داشت و میتوانند بهطور شفاف تصمیم بگیرند که آیا مایل به شبیهسازی چهرهشان هستند یا نه. همچنین این شرکت وعده داده است که هرگونه شکایت مرتبط با نقض حقوق یا سیاستها را با سرعت بررسی کند.
اگرچه OpenAI هنوز جزئیات فنی و اجرایی تغییرات در اپلیکیشن Sora 2 را منتشر نکرده، اما اعلام کرده است که سیاستهای تازه بهگونهای بازطراحی میشود که دارندگان آثار و حقوق معنوی، اختیار کاملتری در تولید یا جلوگیری از شبیهسازی محتوای خود داشته باشند.
«برایان کرانستون» از این رویکرد جدید استقبال کرده، اما «شان آستین»، رئیس اتحادیهی SAG-AFTRA، هشدار داده است که تنها تصویب قوانین الزامآور میتواند از سوءاستفادههای احتمالی فناوری جلوگیری کند.
عذرخواهی OpenAI و تلاش برای جلب اعتماد هنرمندان را میتوان نشانهای از بلوغ اخلاقی در دنیای هوش مصنوعی دانست، اما این گام هنوز کافی نیست. بدون شفافسازی در نحوهی اجرای این سیاستها و تضمین قانونی برای حفظ حقوق خالقان آثار، وعدهها ممکن است در حد روابط عمومی باقی بمانند. فناوریهای تولید محتوا مانند Sora پتانسیل عظیمی برای خلاقیت دارند، اما در غیاب نظارت مؤثر، میتوانند به ابزار دستکاری واقعیت بدل شوند. آیندهی قابل اعتماد هوش مصنوعی زمانی شکل میگیرد که شرکتها نهفقط در گفتار، بلکه در عمل نشان دهند که احترام به انسان از نوآوری مهمتر است.
