در یک پژوهش تازه، گروهی از دانشمندان از دانشگاه سیتی سنت جورج لندن و دانشگاه فناوری اطلاعات کپنهاگ به کشفی قابلتوجه دست یافتند: عاملهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ (LLM) قادرند بدون دخالت مستقیم انسان، در حین تعامل با یکدیگر، به شکل خودانگیخته الگوهای زبانی و هنجارهای اجتماعی مختص به خود ایجاد کنند.
بهگفتهی محققان، این عاملها هنگام قرارگیری در گروههایی تعاملی، نهتنها از الگوهای از پیشتعریفشده پیروی نمیکنند، بلکه مانند جوامع انسانی، مسیرهایی نو برای سازماندهی ارتباطی پیدا میکنند؛ پدیدهای که پیشتر تصور میشد نیازمند هوش انسانی است.
این تحقیق میتواند یکی از نقاط عطف در درک عمیقتر از پتانسیلهای تعامل اجتماعی در هوش مصنوعی باشد. اگر عاملهای هوشمند بتوانند مانند انسانها هنجارهایی خودساخته برای ارتباط شکل دهند، آیندهی هوش مصنوعی نهتنها به سوی همزیستی با انسانها، بلکه به سوی شکلگیری “جوامع دیجیتال مستقل” پیش خواهد رفت. این پدیده فرصتی برای پیشرفت چشمگیر است، اما همزمان ضرورت نظارت و کنترل دقیقتری را نیز یادآوری میکند.
قراردادهای اجتماعی در هوش مصنوعی: تقلید پیچیده از فرهنگ انسانی
در پژوهشی جدید، محققان دانشگاه سیتی سنت جورج و همکارانشان به بررسی چگونگی شکلگیری هنجارهای اجتماعی در میان عاملهای هوش مصنوعی پرداختند؛ آنهم در بستری که تعامل میان این عاملها بدون دانش از کل سیستم انجام میشود. «اریل فلینت اشری» توضیح میدهد که بیشتر مطالعات قبلی مدلهای زبانی بزرگ (LLMها) را بهصورت منفرد بررسی کردهاند، اما در دنیای واقعی، هوش مصنوعی بهطور فزایندهای بهصورت مجموعهای از عاملهای در تعامل با یکدیگر فعالیت میکند. هدف آنها این بود که ببینند آیا این مدلها میتوانند با تشکیل قراردادهای ارتباطی، رفتار جمعی منسجمی ایجاد کنند؛ و پاسخ، مثبت بود.
برای آزمایش این فرضیه، محققان نسخهای از بازی «نامگذاری» را طراحی کردند. در آن، گروههایی شامل ۲۴ تا ۲۰۰ عامل هوش مصنوعی شکل گرفت که بهصورت تصادفی جفت میشدند و باید از بین گزینههایی موجود، یک «نام» برای اشاره به یک موضوع انتخاب میکردند. توافق بین آنها پاداش داشت و عدم توافق منجر به جریمه میشد. با وجود ناآگاهی عاملها از وسعت شبکه و محدود بودن حافظهشان به تعاملات اخیر، بهصورت خودجوش قراردادهای نامگذاری مشترکی در سطح گروه شکل گرفت؛ مشابه همانگونه که انسانها واژگانی مشترک برای اشیاء یا مفاهیم ایجاد میکنند.
از دیگر نتایج جالب این پژوهش، مشاهدهی شکلگیری خودکار تعصبات گروهی و تأثیر گروههای کوچک بر شکلگیری فرهنگ غالب در گروههای بزرگتر بود؛ چیزی که نمونههای آن را در جوامع انسانی بارها دیدهایم.
این یافتهها نشان میدهند که هوش مصنوعی نهتنها در سطح فردی بلکه در سطح جمعی نیز میتواند به الگوهای رفتاری پیچیده و ساختارمند برسد؛ رفتاری که در آن تقلید از اجتماع انسانی بهطرزی طبیعی و خودانگیخته رخ میدهد. این قابلیت میتواند در آینده کاربردهایی مثل تعاملات اجتماعی پیشرفته بین رباتها یا ایجاد شبکههای یادگیرنده مستقل را ممکن کند. با این حال، وجود تعصبات جمعی و توانایی اقلیت برای تأثیرگذاری بر اکثریت، زنگ خطری برای اخلاق در طراحی این سیستمهاست و نیاز به نظارت دقیقتر دارد.