در گامی تازه و مهم، اتحادیه اروپا با انتشار دستورالعملهای جدید حوزه هوش مصنوعی، از شرکتهای فناوری خواسته تا جزئیات دادههای آموزشی مدلهای زبانی بزرگ (LLM) را بهصورت شفاف منتشر کنند و بهطور جدی از نقض حقوق مالکیت معنوی پرهیز نمایند. این اقدام، بخشی از پروژه بزرگ این اتحادیه برای اجرای نخستین چارچوب قانونی جامع در حوزه هوش مصنوعی در سطح جهان است.
طبق گزارشهای منتشرشده، اگرچه این مقررات هنوز بهطور رسمی و کامل به مرحله اجرا نرسیدهاند، اما اتحادیه اروپا با تکیه بر این دستورالعملهای تازه، در تلاش است تا شرکتهای بزرگی همچون OpenAI، گوگل و مایکروسافت را برای اجرای عملی این قوانین آماده سازد. اجرای رسمی این دستورالعمل از ۱۱ مرداد ۱۴۰۴ آغاز خواهد شد، ولی مدلهای موجود دو سال و مدلهای جدید یک سال فرصت خواهند داشت تا با این مقررات تطبیق یابند.
این مقررات بر سه اصل مهم شفافیت، رعایت حقوق نشر و ایمنی تمرکز دارد؛ بدین معنا که شرکتهای توسعهدهنده هوش مصنوعی موظفاند منبع دادههایی را که برای آموزش مدلهای خود استفاده کردهاند مشخص کنند و همچنین مکانیسمهایی را برای اطمینان از عدم نقض حق مؤلف در فرآیند آموزش مدلها بهکار گیرند.
این حرکت اتحادیه اروپا یک گام پیشرو و البته ضروری است. تا پیش از این، غولهای فناوری با استناد به «دادههای عمومی» یا «دادههای اینترنتی» از مسئولیت شفافسازی منابع دادههای خود طفره میرفتند. اما در جهانی که هوش مصنوعی به بخشی از زیرساختهای تصمیمگیری، رسانه، آموزش و حتی حقوق تبدیل میشود، شفافیت نهتنها یک مزیت، بلکه یک ضرورت اخلاقی و قانونی است. این اقدام میتواند الگویی برای سایر کشورها باشد تا در مسیر مهار بیقانونی احتمالی در حوزه هوش مصنوعی، قدم بردارند.
اروپا شفافیت، حق نشر و ایمنی را به خط مقدم میبرد
اتحادیه اروپا در ادامه تلاشهایش برای قانونمند کردن حوزهی هوش مصنوعی، مقرراتی چندلایه و سختگیرانه را معرفی کرده که سه محور اساسی دارند : شفافیت، رعایت حقوق نشر و حفظ ایمنی عمومی. این دستورالعمل، شرکتهای توسعهدهنده مدلهای زبانی را وادار میکند تا اطلاعات دقیقی در مورد روشهای آموزش، منابع داده، میزان مصرف انرژی و قدرت پردازشی مورد استفاده ارائه دهند؛ موضوعی که احتمالاً با مقاومت بازیگران بزرگ این صنعت مواجه خواهد شد.
در بخش حقوق نشر، تأکید شده است که مدلهای هوش مصنوعی باید به محدودیتهای وبسایتها، قوانین پیوال (Paywall) و حق دسترسی به محتوای دارای کپیرایت احترام بگذارند. این مورد، بهویژه با توجه به شکایتهایی که ناشران اروپایی علیه قابلیت خلاصهسازی محتوای گوگل مطرح کردهاند، از حساسیت بالایی برخوردار است. بهعلاوه، پیشنهاد قانون جدیدی در دانمارک، به افراد اجازه خواهد داد تا برای چهرهی خود نیز حق نشر قائل شوند تا از تولید دیپفیکهای غیرمجاز جلوگیری شود.
شرکتهای بزرگ فعال در این حوزه، با نوعی دوگانگی مواجه شدهاند؛ از یکسو پذیرفتهاند که فعالیتهایشان با برخی قوانین کپیرایت همخوانی ندارد، و از سوی دیگر هشدار دادهاند که در صورت الزام به دریافت مجوز از تمامی صاحبان حقوق، روند توسعه مدلهای هوش مصنوعی ممکن است به بنبست برسد.
از منظر ایمنی نیز، این مقررات تهدیداتی چون نظارت بیضابطه، جعل هویت، انتشار اطلاعات نادرست و حتی استفاده نظامی از فناوری را هدف گرفته است. بر اساس گزارش بلومبرگ، در صورت تخطی از این قوانین، شرکتها با جریمهای تا سقف ۷ درصد درآمد سالانهشان روبهرو خواهند شد؛ رقمی که میتواند هر غول فناوری را به فکر تبعیت از قانون بیندازد.
رویکرد جدید اتحادیه اروپا بیش از آنکه یک حرکت صرفاً سیاسی یا نمادین باشد، نمایانگر یک درک عمیق از ریسکهای ساختاری هوش مصنوعی است. شفافیت در منبع داده، رعایت مرزهای قانونی در استفاده از محتوای دارای حق نشر، و پیشگیری از کاربردهای خطرناک، همگی دغدغههاییاند که تا امروز اغلب از سوی شرکتهای فناوری بهصورت جدی نادیده گرفته شدهاند. شاید بتوان گفت این قوانین، آغاز عصری جدید در تعامل میان قدرت فناوری و قانونگذاران است؛ عصری که در آن دیگر نمیتوان پشت پردههای الگوریتمی پنهان شد.