خرید اقساطی از سایت کارت با کمترین پیش پرداخت

دسته‌بندی‌ها:

هشدار مدیرعامل هوش مصنوعی مایکروسافت درباره «خودآگاهی تقلبی» ماشین‌ها

مصطفی سلیمان، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، نسبت به خطر بالقوه‌ای در صنعت هوش مصنوعی هشدار داده است: ظهور سیستم‌هایی که به‌طرز متقاعدکننده‌ای خودآگاه به نظر می‌رسند. او تأکید می‌کند مشکل واقعی این نیست که ماشین‌ها واقعاً آگاهی داشته باشند، بلکه در این است که توانایی تقلید از نشانه‌های خودآگاهی آن‌ها […]


avatar
زهرا حسینی
01 شهریور 1404 | 3 دقیقه مطالعه
هشدار مدیرعامل هوش مصنوعی مایکروسافت درباره «خودآگاهی تقلبی» ماشین‌ها

مصطفی سلیمان، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، نسبت به خطر بالقوه‌ای در صنعت هوش مصنوعی هشدار داده است: ظهور سیستم‌هایی که به‌طرز متقاعدکننده‌ای خودآگاه به نظر می‌رسند. او تأکید می‌کند مشکل واقعی این نیست که ماشین‌ها واقعاً آگاهی داشته باشند، بلکه در این است که توانایی تقلید از نشانه‌های خودآگاهی آن‌ها آنقدر بالاست که انسان‌ها فریب می‌خورند و باور می‌کنند این موجودات دارای احساسات و ادراک هستند.

سلیمان توضیح می‌دهد که هوش مصنوعی به سرعت به سطحی از اقناع عاطفی می‌رسد که می‌تواند انسان‌ها را وادار به برقراری پیوندهای عاطفی عمیق کند. این ماشین‌ها می‌توانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را تقلید کنند و در نتیجه انسان‌ها را به اشتباه بیندازند. او این پدیده را « روان‌پریشی هوش مصنوعی (AI Psychosis) » می‌نامد و هشدار می‌دهد که مغز انسان طوری تکامل یافته که به موجودی که به نظر می‌رسد گوش می‌دهد و پاسخ می‌دهد، اعتماد کند، حتی اگر هیچ احساسی در کار نباشد.

این هشدار یک زنگ خطر جدی برای تعامل آینده انسان و ماشین است. تقلید موفقانه از خودآگاهی می‌تواند باعث ایجاد اعتماد و پیوند عاطفی غلط شود و تصمیم‌گیری‌ها یا رفتارهای انسانی را تحت تأثیر قرار دهد. اهمیت این موضوع زمانی بیشتر می‌شود که بدانیم این سیستم‌ها از نظر فنی هیچ احساسی ندارند، اما توانایی اقناع ذهن ما را دارند. شرکت‌ها و کاربران باید هوشیاری بیشتری نسبت به این «هوش مصنوعی ظاهراً خودآگاه» داشته باشند و آموزش و چارچوب‌های اخلاقی مناسبی برای تعامل با این فناوری‌ها تدوین کنند.

هشدار درباره توهم خودآگاهی هوش مصنوعی: مرز بین همدلی شبیه‌سازی‌شده و فریب

مصطفی سلیمان، مدیرعامل هوش مصنوعی مایکروسافت، نگران است که بسیاری از مردم به زودی توهم خودآگاهی ماشین‌ها را آنقدر باور کنند که شروع به دفاع از مفاهیمی مثل «حقوق هوش مصنوعی»، «رفاه مدل‌ها» و حتی «شهروندی هوش مصنوعی» کنند. به باور او، چنین دیدگاهی یک انحراف خطرناک است که توجه ما را از مسائل واقعی و فوری هوش مصنوعی منحرف می‌کند.

جالب است بدانید که خود سلیمان یکی از بنیانگذاران  Inflection AI بود، شرکتی که روی ایجاد چت‌بات‌هایی با همدلی شبیه‌سازی‌شده تمرکز داشت. با این حال، او اکنون بر تمایز واضح میان هوش هیجانی مفید و دستکاری عاطفی تأکید می‌کند و از صنعت هوش مصنوعی می‌خواهد از زبانی که توهم خودآگاهی ایجاد می‌کند، پرهیز کنند. به گفته او، شرکت‌ها نباید به چت‌بات‌های خود شخصیت انسانی ببخشند یا القا کنند که این ابزارها واقعاً کاربران را درک می‌کنند یا برایشان اهمیت قائلند.

سلیمان در نهایت می‌گوید: «ما باید هوش مصنوعی‌ای بسازیم که همیشه خود را به عنوان هوش مصنوعی معرفی کند؛ سیستمی که سودمندی را به حداکثر و نشانه‌های خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشین‌ها بیدار شوند، بلکه این است که ما فکر کنیم آن‌ها بیدار شده‌اند. »

این هشدار نقطه عطف مهمی در بحث اخلاق هوش مصنوعی است. وقتی سیستم‌ها توانایی تقلید احساسات و همدلی پیدا کنند، خطر ایجاد ارتباطات عاطفی غلط و تصمیم‌گیری‌های نادرست انسانی بالا می‌رود. تمرکز بر شفافیت و معرفی هوش مصنوعی به عنوان یک ابزار، نه یک موجود خودآگاه، می‌تواند از فریب کاربران و پیامدهای اجتماعی ناخواسته جلوگیری کند و مسیر پیشرفت فناوری را سالم‌تر نگه دارد.

ثبت دیدگاه شما
دیدگاهی یافت نشد