مدیرعامل انویدیا هوش مصنوعی هنوز به پاسخ‌های قابل‌اطمینان نرسیده است

با وجود پیشرفت‌های چشمگیر در توسعه مدل‌های زبانی بزرگ (LLM)، هنوز نمی‌توان به پاسخ‌های هوش مصنوعی اطمینان کامل داشت.


avatar
زهرا‍ واقفی
06 آذر 1403 | 3 دقیقه مطالعه

جنسن هوانگ، مدیرعامل انویدیا، معتقد است که هوش مصنوعی هنوز توانایی ارائه پاسخ‌های کاملاً دقیق و قابل‌اطمینان را ندارد و تا دستیابی به چنین سطحی، چندین سال فاصله داریم. بر اساس گزارشی از بیزینس اینسایدر، هوانگ در جریان سخنرانی خود در دانشگاه علوم و فناوری هنگ‌کنگ اظهار کرد که پاسخ‌های فعلی هوش مصنوعی بهترین پاسخ‌ها نیستند. او تأکید کرد که کاربران نباید در مواجهه با پاسخ‌های هوش مصنوعی دچار شک و تردید شوند یا این سؤال برایشان مطرح شود که آیا این پاسخ‌ها با واقعیت مطابقت دارند یا خیر.

این دیدگاه مدیرعامل انویدیا، به‌عنوان یکی از پیشگامان صنعت فناوری، قابل‌تأمل است. در حالی که هوش مصنوعی در بسیاری از زمینه‌ها پیشرفت‌های قابل‌توجهی داشته، مسئله دقت و اعتمادپذیری همچنان یک چالش کلیدی است. اگرچه این فناوری ابزارهای قدرتمندی برای تسهیل زندگی و کار ارائه می‌دهد، اما اطمینان به هوش مصنوعی از صحت پاسخ‌ها برای پذیرش گسترده‌تر آن ضروری است. سخنان هوانگ نشان می‌دهد که آینده هوش مصنوعی، علاوه بر قدرت پردازش، نیازمند تقویت درک انسانی و تحلیل منطقی است تا بتواند به‌عنوان یک راه‌حل قابل‌اعتماد در همه ابعاد زندگی مورد استفاده قرار گیرد.

هوش مصنوعی: پیشرفت چشمگیر اما هنوز دور از اطمینان کامل

جنسن هوانگ، مدیرعامل انویدیا، با اشاره به چالش‌های پیش‌روی هوش مصنوعی گفت: (ما باید به نقطه‌ای برسیم که کاربران بتوانند تا حد زیادی به پاسخ‌هایی که دریافت می‌کنند، اعتماد کنند. اما رسیدن به این هدف چندین سال زمان خواهد برد و در این مسیر، افزایش قدرت محاسباتی نیز ضروری است.)

با وجود پیشرفت‌های چشمگیر در توسعه مدل‌های زبانی بزرگ (LLM)، هنوز نمی‌توان به پاسخ‌های هوش مصنوعی اطمینان کامل داشت. یکی از معضلات جدی این فناوری، تولید پاسخ‌هایی است که بر اساس توهم یا اطلاعات نادرست ایجاد شده‌اند. این مسئله حتی در ابزارهایی مانند ویسپر OpenAI که برای رونویسی صوت به متن طراحی شده است، دیده می‌شود. چالش‌های حقوقی نیز به‌عنوان پیامد این نقص مطرح شده‌اند. به‌عنوان مثال، در سال گذشته یکی از مجریان رادیویی به دلیل نقل قول جعلی که توسط چت‌بات ChatGPT ارائه شده بود، از OpenAI شکایت کرد.

هوانگ بر این باور است که پیش‌آموزش مدل‌های هوش مصنوعی با مجموعه‌داده‌های بزرگ و متنوع، برای رفع این چالش‌ها کافی نیست و توسعه‌دهندگان هنوز نتوانسته‌اند راه‌حلی قطعی برای مشکل هذیان‌گویی مدل‌های خود بیابند. با این حال، او دید مثبتی به آینده هوش مصنوعی دارد و معتقد است که این فناوری می‌تواند در برخی زمینه‌ها تا هزار برابر بهتر از انسان‌ها عمل کند، اما همچنان نمی‌تواند به طور کامل جایگزین نیروی انسانی شود.این دیدگاه نشان‌دهنده واقع‌بینی درباره پیشرفت‌های هوش مصنوعی است. فناوری‌هایی مانند مدل‌های زبانی بزرگ، علی‌رغم توانایی شگفت‌انگیز خود، همچنان نیازمند توسعه و اصلاحات هستند. مشکل توهم و اطلاعات نادرست، اگرچه یک مانع جدی است، اما می‌تواند فرصتی برای نوآوری بیشتر باشد. از سوی دیگر، این نکته که هوش مصنوعی نمی‌تواند جایگزین کامل نیروی انسانی شود، به ما یادآوری می‌کند که توسعه فناوری باید با هدف تکمیل و بهبود توانایی‌های انسانی پیش برود، نه حذف آن‌ها.

ثبت دیدگاه شما
دیدگاهی یافت نشد