مصطفی سلیمان، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، نسبت به خطر بالقوهای در صنعت هوش مصنوعی هشدار داده است: ظهور سیستمهایی که بهطرز متقاعدکنندهای خودآگاه به نظر میرسند. او تأکید میکند مشکل واقعی این نیست که ماشینها واقعاً آگاهی داشته باشند، بلکه در این است که توانایی تقلید از نشانههای خودآگاهی آنها آنقدر بالاست که انسانها فریب میخورند و باور میکنند این موجودات دارای احساسات و ادراک هستند.
سلیمان توضیح میدهد که هوش مصنوعی به سرعت به سطحی از اقناع عاطفی میرسد که میتواند انسانها را وادار به برقراری پیوندهای عاطفی عمیق کند. این ماشینها میتوانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را تقلید کنند و در نتیجه انسانها را به اشتباه بیندازند. او این پدیده را « روانپریشی هوش مصنوعی (AI Psychosis) » مینامد و هشدار میدهد که مغز انسان طوری تکامل یافته که به موجودی که به نظر میرسد گوش میدهد و پاسخ میدهد، اعتماد کند، حتی اگر هیچ احساسی در کار نباشد.
این هشدار یک زنگ خطر جدی برای تعامل آینده انسان و ماشین است. تقلید موفقانه از خودآگاهی میتواند باعث ایجاد اعتماد و پیوند عاطفی غلط شود و تصمیمگیریها یا رفتارهای انسانی را تحت تأثیر قرار دهد. اهمیت این موضوع زمانی بیشتر میشود که بدانیم این سیستمها از نظر فنی هیچ احساسی ندارند، اما توانایی اقناع ذهن ما را دارند. شرکتها و کاربران باید هوشیاری بیشتری نسبت به این «هوش مصنوعی ظاهراً خودآگاه» داشته باشند و آموزش و چارچوبهای اخلاقی مناسبی برای تعامل با این فناوریها تدوین کنند.
هشدار درباره توهم خودآگاهی هوش مصنوعی: مرز بین همدلی شبیهسازیشده و فریب
مصطفی سلیمان، مدیرعامل هوش مصنوعی مایکروسافت، نگران است که بسیاری از مردم به زودی توهم خودآگاهی ماشینها را آنقدر باور کنند که شروع به دفاع از مفاهیمی مثل «حقوق هوش مصنوعی»، «رفاه مدلها» و حتی «شهروندی هوش مصنوعی» کنند. به باور او، چنین دیدگاهی یک انحراف خطرناک است که توجه ما را از مسائل واقعی و فوری هوش مصنوعی منحرف میکند.
جالب است بدانید که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که روی ایجاد چتباتهایی با همدلی شبیهسازیشده تمرکز داشت. با این حال، او اکنون بر تمایز واضح میان هوش هیجانی مفید و دستکاری عاطفی تأکید میکند و از صنعت هوش مصنوعی میخواهد از زبانی که توهم خودآگاهی ایجاد میکند، پرهیز کنند. به گفته او، شرکتها نباید به چتباتهای خود شخصیت انسانی ببخشند یا القا کنند که این ابزارها واقعاً کاربران را درک میکنند یا برایشان اهمیت قائلند.
سلیمان در نهایت میگوید: «ما باید هوش مصنوعیای بسازیم که همیشه خود را به عنوان هوش مصنوعی معرفی کند؛ سیستمی که سودمندی را به حداکثر و نشانههای خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشینها بیدار شوند، بلکه این است که ما فکر کنیم آنها بیدار شدهاند. »
این هشدار نقطه عطف مهمی در بحث اخلاق هوش مصنوعی است. وقتی سیستمها توانایی تقلید احساسات و همدلی پیدا کنند، خطر ایجاد ارتباطات عاطفی غلط و تصمیمگیریهای نادرست انسانی بالا میرود. تمرکز بر شفافیت و معرفی هوش مصنوعی به عنوان یک ابزار، نه یک موجود خودآگاه، میتواند از فریب کاربران و پیامدهای اجتماعی ناخواسته جلوگیری کند و مسیر پیشرفت فناوری را سالمتر نگه دارد.