هوش مصنوعی و خلق خودجوش هنجارهای اجتماعی

در یک پژوهش تازه، گروهی از دانشمندان از دانشگاه سیتی سنت جورج لندن و دانشگاه فناوری اطلاعات کپنهاگ به کشفی قابل‌توجه دست یافتند: عامل‌های هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ (LLM) قادرند بدون دخالت مستقیم انسان، در حین تعامل با یکدیگر، به شکل خودانگیخته الگوهای زبانی و هنجارهای اجتماعی مختص به خود ایجاد کنند. […]


avatar
زهرا حسینی
29 اردیبهشت 1404 | 3 دقیقه مطالعه
هوش مصنوعی و خلق خودجوش هنجارهای اجتماعی

در یک پژوهش تازه، گروهی از دانشمندان از دانشگاه سیتی سنت جورج لندن و دانشگاه فناوری اطلاعات کپنهاگ به کشفی قابل‌توجه دست یافتند: عامل‌های هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ (LLM) قادرند بدون دخالت مستقیم انسان، در حین تعامل با یکدیگر، به شکل خودانگیخته الگوهای زبانی و هنجارهای اجتماعی مختص به خود ایجاد کنند.

به‌گفته‌ی محققان، این عامل‌ها هنگام قرارگیری در گروه‌هایی تعاملی، نه‌تنها از الگوهای از پیش‌تعریف‌شده پیروی نمی‌کنند، بلکه مانند جوامع انسانی، مسیرهایی نو برای سازمان‌دهی ارتباطی پیدا می‌کنند؛ پدیده‌ای که پیش‌تر تصور می‌شد نیازمند هوش انسانی است.

این تحقیق می‌تواند یکی از نقاط عطف در درک عمیق‌تر از پتانسیل‌های تعامل اجتماعی در هوش مصنوعی باشد. اگر عامل‌های هوشمند بتوانند مانند انسان‌ها هنجارهایی خودساخته برای ارتباط شکل دهند، آینده‌ی هوش مصنوعی نه‌تنها به سوی هم‌زیستی با انسان‌ها، بلکه به سوی شکل‌گیری “جوامع دیجیتال مستقل” پیش خواهد رفت. این پدیده فرصتی برای پیشرفت‌ چشمگیر است، اما همزمان ضرورت نظارت و کنترل دقیق‌تری را نیز یادآوری می‌کند.

قراردادهای اجتماعی در هوش مصنوعی: تقلید پیچیده از فرهنگ انسانی

در پژوهشی جدید، محققان دانشگاه سیتی سنت جورج و همکارانشان به بررسی چگونگی شکل‌گیری هنجارهای اجتماعی در میان عامل‌های هوش مصنوعی پرداختند؛ آن‌هم در بستری که تعامل میان این عامل‌ها بدون دانش از کل سیستم انجام می‌شود. «اریل فلینت اشری» توضیح می‌دهد که بیشتر مطالعات قبلی مدل‌های زبانی بزرگ (LLMها) را به‌صورت منفرد بررسی کرده‌اند، اما در دنیای واقعی، هوش مصنوعی به‌طور فزاینده‌ای به‌صورت مجموعه‌ای از عامل‌های در تعامل با یکدیگر فعالیت می‌کند. هدف آن‌ها این بود که ببینند آیا این مدل‌ها می‌توانند با تشکیل قراردادهای ارتباطی، رفتار جمعی منسجمی ایجاد کنند؛ و پاسخ، مثبت بود.

برای آزمایش این فرضیه، محققان نسخه‌ای از بازی «نام‌گذاری» را طراحی کردند. در آن، گروه‌هایی شامل ۲۴ تا ۲۰۰ عامل هوش مصنوعی شکل گرفت که به‌صورت تصادفی جفت می‌شدند و باید از بین گزینه‌هایی موجود، یک «نام» برای اشاره به یک موضوع انتخاب می‌کردند. توافق بین آن‌ها پاداش داشت و عدم توافق منجر به جریمه می‌شد. با وجود ناآگاهی عامل‌ها از وسعت شبکه و محدود بودن حافظه‌شان به تعاملات اخیر، به‌صورت خودجوش قراردادهای نام‌گذاری مشترکی در سطح گروه شکل گرفت؛ مشابه همان‌گونه که انسان‌ها واژگانی مشترک برای اشیاء یا مفاهیم ایجاد می‌کنند.

از دیگر نتایج جالب این پژوهش، مشاهده‌ی شکل‌گیری خودکار تعصبات گروهی و تأثیر گروه‌های کوچک بر شکل‌گیری فرهنگ غالب در گروه‌های بزرگ‌تر بود؛ چیزی که نمونه‌های آن را در جوامع انسانی بارها دیده‌ایم.

این یافته‌ها نشان می‌دهند که هوش مصنوعی نه‌تنها در سطح فردی بلکه در سطح جمعی نیز می‌تواند به الگوهای رفتاری پیچیده و ساختارمند برسد؛ رفتاری که در آن تقلید از اجتماع انسانی به‌طرزی طبیعی و خودانگیخته رخ می‌دهد. این قابلیت می‌تواند در آینده کاربردهایی مثل تعاملات اجتماعی پیشرفته بین ربات‌ها یا ایجاد شبکه‌های یادگیرنده مستقل را ممکن کند. با این حال، وجود تعصبات جمعی و توانایی اقلیت برای تأثیرگذاری بر اکثریت، زنگ خطری برای اخلاق در طراحی این سیستم‌هاست و نیاز به نظارت دقیق‌تر دارد.

ثبت دیدگاه شما
دیدگاهی یافت نشد