خرید اقساطی از سایت کارت با کمترین پیش پرداخت

دسته‌بندی‌ها:

افشای شفاف؛ اتحادیه اروپا در مسیر مهار غول‌های هوش مصنوعی

در گامی تازه و مهم، اتحادیه اروپا با انتشار دستورالعمل‌های جدید حوزه هوش مصنوعی، از شرکت‌های فناوری خواسته تا جزئیات داده‌های آموزشی مدل‌های زبانی بزرگ (LLM) را به‌صورت شفاف منتشر کنند و به‌طور جدی از نقض حقوق مالکیت معنوی پرهیز نمایند. این اقدام، بخشی از پروژه بزرگ این اتحادیه برای اجرای نخستین چارچوب قانونی جامع […]


avatar
نازنین طالب لو
23 تیر 1404 | 4 دقیقه مطالعه

در گامی تازه و مهم، اتحادیه اروپا با انتشار دستورالعمل‌های جدید حوزه هوش مصنوعی، از شرکت‌های فناوری خواسته تا جزئیات داده‌های آموزشی مدل‌های زبانی بزرگ (LLM) را به‌صورت شفاف منتشر کنند و به‌طور جدی از نقض حقوق مالکیت معنوی پرهیز نمایند. این اقدام، بخشی از پروژه بزرگ این اتحادیه برای اجرای نخستین چارچوب قانونی جامع در حوزه هوش مصنوعی در سطح جهان است.

طبق گزارش‌های منتشرشده، اگرچه این مقررات هنوز به‌طور رسمی و کامل به مرحله اجرا نرسیده‌اند، اما اتحادیه اروپا با تکیه بر این دستورالعمل‌های تازه، در تلاش است تا شرکت‌های بزرگی همچون OpenAI، گوگل و مایکروسافت را برای اجرای عملی این قوانین آماده سازد. اجرای رسمی این دستورالعمل از ۱۱ مرداد ۱۴۰۴ آغاز خواهد شد، ولی مدل‌های موجود دو سال و مدل‌های جدید یک سال فرصت خواهند داشت تا با این مقررات تطبیق یابند.

این مقررات بر سه اصل مهم شفافیت، رعایت حقوق نشر و ایمنی تمرکز دارد؛ بدین معنا که شرکت‌های توسعه‌دهنده هوش مصنوعی موظف‌اند منبع داده‌هایی را که برای آموزش مدل‌های خود استفاده کرده‌اند مشخص کنند و همچنین مکانیسم‌هایی را برای اطمینان از عدم نقض حق مؤلف در فرآیند آموزش مدل‌ها به‌کار گیرند.

این حرکت اتحادیه اروپا یک گام پیشرو و البته ضروری است. تا پیش از این، غول‌های فناوری با استناد به «داده‌های عمومی» یا «داده‌های اینترنتی» از مسئولیت شفاف‌سازی منابع داده‌های خود طفره می‌رفتند. اما در جهانی که هوش مصنوعی به بخشی از زیرساخت‌های تصمیم‌گیری، رسانه، آموزش و حتی حقوق تبدیل می‌شود، شفافیت نه‌تنها یک مزیت، بلکه یک ضرورت اخلاقی و قانونی است. این اقدام می‌تواند الگویی برای سایر کشورها باشد تا در مسیر مهار بی‌قانونی احتمالی در حوزه هوش مصنوعی، قدم بردارند.

اروپا شفافیت، حق نشر و ایمنی را به خط مقدم می‌برد

اتحادیه اروپا در ادامه تلاش‌هایش برای قانون‌مند کردن حوزه‌ی هوش مصنوعی، مقرراتی چندلایه و سخت‌گیرانه را معرفی کرده که سه محور اساسی دارند : شفافیت، رعایت حقوق نشر و حفظ ایمنی عمومی. این دستورالعمل، شرکت‌های توسعه‌دهنده مدل‌های زبانی را وادار می‌کند تا اطلاعات دقیقی در مورد روش‌های آموزش، منابع داده، میزان مصرف انرژی و قدرت پردازشی مورد استفاده ارائه دهند؛ موضوعی که احتمالاً با مقاومت بازیگران بزرگ این صنعت مواجه خواهد شد.

در بخش حقوق نشر، تأکید شده است که مدل‌های هوش مصنوعی باید به محدودیت‌های وب‌سایت‌ها، قوانین پی‌وال  (Paywall)  و حق دسترسی به محتوای دارای کپی‌رایت احترام بگذارند. این مورد، به‌ویژه با توجه به شکایت‌هایی که ناشران اروپایی علیه قابلیت خلاصه‌سازی محتوای گوگل مطرح کرده‌اند، از حساسیت بالایی برخوردار است. به‌علاوه، پیشنهاد قانون جدیدی در دانمارک، به افراد اجازه خواهد داد تا برای چهره‌ی خود نیز حق نشر قائل شوند تا از تولید دیپ‌فیک‌های غیرمجاز جلوگیری شود.

شرکت‌های بزرگ فعال در این حوزه، با نوعی دوگانگی مواجه شده‌اند؛ از یک‌سو پذیرفته‌اند که فعالیت‌هایشان با برخی قوانین کپی‌رایت همخوانی ندارد، و از سوی دیگر هشدار داده‌اند که در صورت الزام به دریافت مجوز از تمامی صاحبان حقوق، روند توسعه مدل‌های هوش مصنوعی ممکن است به بن‌بست برسد.

از منظر ایمنی نیز، این مقررات تهدیداتی چون نظارت بی‌ضابطه، جعل هویت، انتشار اطلاعات نادرست و حتی استفاده نظامی از فناوری را هدف گرفته است. بر اساس گزارش بلومبرگ، در صورت تخطی از این قوانین، شرکت‌ها با جریمه‌ای تا سقف ۷ درصد درآمد سالانه‌شان روبه‌رو خواهند شد؛ رقمی که می‌تواند هر غول فناوری را به فکر تبعیت از قانون بیندازد.

رویکرد جدید اتحادیه اروپا بیش از آن‌که یک حرکت صرفاً سیاسی یا نمادین باشد، نمایانگر یک درک عمیق از ریسک‌های ساختاری هوش مصنوعی است. شفافیت در منبع داده، رعایت مرزهای قانونی در استفاده از محتوای دارای حق نشر، و پیشگیری از کاربردهای خطرناک، همگی دغدغه‌هایی‌اند که تا امروز اغلب از سوی شرکت‌های فناوری به‌صورت جدی نادیده گرفته شده‌اند. شاید بتوان گفت این قوانین، آغاز عصری جدید در تعامل میان قدرت فناوری و قانون‌گذاران است؛ عصری که در آن دیگر نمی‌توان پشت پرده‌های الگوریتمی پنهان شد.

ثبت دیدگاه شما
دیدگاهی یافت نشد