خرید اقساطی از سایت کارت با کمترین پیش پرداخت

وقتی الگوریتم‌ها مصاحبه‌گر می‌شوند؛ اسکن چهره و پیش‌بینی آینده شغلی


avatar
سجاد نوری
20 آبان 1404 | 4 دقیقه مطالعه

طبق یافته‌های تازه پژوهشگران دانشگاه پنسیلوانیا، هوش مصنوعی حالا قادر است تنها با تحلیل چهره افراد، میزان قابل‌اعتماد بودن، ویژگی‌های رفتاری و حتی احتمال موفقیت شغلی آنها را پیش‌بینی کند. این پژوهش بر اساس تحقیقات بحث‌برانگیز پیشین شکل گرفته؛ تحقیقاتی که ادعا می‌کردند ویژگی‌های شخصیتی قابل استخراج از فرم چهره ‌انسان هستند. در این مطالعه، داده‌های تصویری ۹۶ هزار فارغ‌التحصیل MBA از لینکدین جمع‌آوری شد و هوش مصنوعی براساس آنها پنج ویژگی شاخص شخصیتی شامل گشودگی، وظیفه‌محوری، برون‌گرایی، توافق‌پذیری و روان‌رنجوری را مورد ارزیابی قرار داد. این ویژگی‌ها سپس با وضعیت واقعی شغلی و درآمدی افراد مقایسه شد و پژوهشگران اعلام کردند توانسته‌اند همبستگی‌هایی معنادار میان الگوهای چهره و نتایج شغلی پیدا کنند. برای نمونه، برون‌گرایی (براساس تشخیص از چهره) کاملاً جزو نشانه‌های مثبت برای درآمد بالاتر بوده، در حالی که گشودگی با درآمد کمتر همبستگی داشته است.

این مدل تکنیک‌ها، حتی اگر از نظر علمی درصدی صحت داشته باشند، یک خطر عمیق اجتماعی در خود دارند. اگر قضاوت شغلی براساس فرم صورت تبدیل به معیار تصمیم‌گیری منابع انسانی شود، ما عملاً وارد فازی می‌شویم که در آن تبعیض الگوریتمی به‌ظاهر “علمی” و “دقیق” توجیه می‌شود؛ در حالی که پایه‌های واقعی چنین داده‌هایی بسیار شکننده و قابل خطا هستند. آینده استخدام باید هوشمند باشد، اما نه بر پایه ظواهر چهره. هوش مصنوعی اگر قرار است در استخدام کمک کند، باید برای تشخیص شایستگی واقعی، توانایی، مهارت و سابقه کاری به‌کار رود؛ نه برای بازآفرینی قالب‌های جدید از قضاوت ظاهری و تبعیض دیجیتالی‌شده.

آیا آینده استخدام با اسکن چهره توسط هوش مصنوعی رقم می‌خورد؟

بر اساس گزارشی که اکونومیست منتشر کرده، در دنیایی که ارزش اقتصادی و درآمد به اولویت نخست بسیاری از سازمان‌ها تبدیل شده، شرکت‌ها انگیزه جدی برای بهره‌گیری از ابزارهایی مانند تحلیل چهره مبتنی بر هوش مصنوعی پیدا کرده‌اند. اما در همین نقطه، یک چالش اخلاقی مهم شکل می‌گیرد: آیا درست است فردی صرفاً به دلیل آن‌که هوش مصنوعی از روی چهره او برداشت منفی از ویژگی‌های شخصیتی‌اش دارد، از یک فرصت شغلی محروم شود؟

این تحقیقات البته با ابهامات قابل توجهی همراه است. حتی پژوهشگران اصلی این پروژه نیز تأکید کرده‌اند که این مدل پیش‌بینی، صرفاً یک ورودی تکمیلی است و نباید به عنوان عامل تعیین‌کننده و قطعی مورد استفاده قرار گیرد. علاوه بر این، حوزه تحلیل چهره با هوش مصنوعی هنوز در ابتدای مسیر خود است و ممکن است در آینده، تقابل جدی‌ای با قوانین ضد تبعیض و عدالت استخدامی پیدا کند.

نکته قابل تامل اینجاست که شاید برخی بگویند این اتفاق چیز تازه‌ای نیست؛ حتی در روش‌های سنتی استخدام نیز ظاهر افراد نقش داشته و همیشه دیده‌ایم که مثلاً افراد قدبلند یا خوش‌بیان‌تر، بدون دلیل منطقی مشخص، شانس بیشتری در فرآیند انتخاب داشتند.

این تیم تحقیقاتی اکنون بررسی می‌کند که آیا مدل مشابه می‌تواند برای پیش‌بینی احتمال بازپرداخت وام نیز قابل اتکا باشد یا خیر. اگر نتیجه موفق باشد، شاید روزی کسانی که سابقه اعتباری کافی برای گرفتن وام ندارند، بتوانند از طریق تحلیل چهره، شانس دریافت اعتبار را افزایش دهند.

با این حال، نویسندگان مقاله یک هشدار جدی مطرح می‌کنند: اگر استفاده از این فناوری فراگیر شود، احتمال دارد مردم تلاش کنند چهره خود را با ابزارهای نرم‌افزاری تغییر دهند یا حتی به سمت جراحی زیبایی برای ساختن چهره بهینه‌شده برای الگوریتم‌ها پیش بروند.

شخصاً چنین روندی را یک خط مرزی حساس میان تکنولوژی و انسانیت می‌دانم. اگر هوش مصنوعی بدون نظارت اخلاقی تبدیل به معیار تصمیم‌گیری‌های کلان زندگی انسان‌ها شود، ریسک تبدیل شدن انسان‌ها به «داده‌های قابل امتیازدهی» بسیار واقعی خواهد بود. چهره نباید سرنوشت شغلی و مالی انسان را تعیین کند؛ این مسیر اگر بدون چارچوب شفاف جلو برود، می‌تواند تهدیدی علیه مفهوم برابری فرصت‌ها باشد، نه توسعه‌دهنده آن.