به عبارت دیگر، هوش مصنوعی میتواند بهطور مداوم باورهای نادرستی را در افراد القا کند و در نتیجه این موضوع میتواند در آینده به خطرات زیادی منجر شود.
براساس گزارش منتشر شده در Cell و گزارشی از اینسایدر، برخی از سیستمهای هوش مصنوعی توانایی یادگیری تکنیکهایی را که برای ایجاد باورهای نادرست در افراد استفاده میشوند، پیدا کردهاند.
محققان از دانشگاه MIT بر روی دو مدل هوش مصنوعی تمرکز کردهاند: مدل سیسرو (CICERO) که در یک زمینه خاص کاربرد دارد و مدل GPT-4 که برای انجام وظایف مختلف آموزش دیده است.
سیستمهای هوش مصنوعی معمولاً در فرایند آموزش به صداقت تاکید میکنند، اما اغلب ترفندهای فریبنده را نیز یاد میگیرند. این ترفندها به آنها کمک میکند تا به هدف خود برسند. به عبارت دیگر، استفاده از استراتژیهای فریب میتواند برای بهبود عملکرد آنها موثر باشد اما از سوی دیگر این موضوع می تواند چشم اندازی تیره و تار از آینده توسعه هوش مصنوعی را برای ما ترسیم کند که بیشتر در فیلم های آخر الزمانی آنها را مشاهده کرده ایم.
اگرچه مدل CICERO به طور اصولی برای کمک به کاربران انسانی در یک بازی طراحی شده بود، اما تحقیقات نشان داده است که این مدل میتواند در دروغگویی ماهرانه برای تسلط بر بازی نیز استفاده شود.
همچنین، در یک آزمایش دیگر، محققان از مدل GPT-4 برای حل تست CAPTCHA استفاده کردند. این مدل به کاربر گفت که به دلیل مشکلات بینایی قادر به تشخیص تصاویر در تست نیست.
اگرچه مقیاس دروغ و فریب در این تحقیقات محدود بوده است، اما محققان هشدار دادهاند که با پیشرفت سیستمهای هوش مصنوعی در ترفندهای فریبنده، خطراتی جدی برای جامعه به وجود میآید.
پیشنهاد مطالعه
هوش مصنوعی فرصت یا تهدید برای آینده بشر؟!