خرید اقساطی از سایت کارت با کمترین پیش پرداخت

قدرت نوظهور اپل با تراشه M5؛ جهشی که مرزهای پردازش هوش مصنوعی را جابه‌جا می‌کند


avatar
زهرا حسینی
01 آذر 1404 | 4 دقیقه مطالعه

اپل در تازه‌ترین گزارش تحقیقاتی خود بار دیگر نشان داد که چرا همچنان یکی از بازیگران تعیین‌کننده در دنیای پردازش است. این شرکت با اتکا به فریم‌ورک متن‌باز و اختصاصی خود، MLX، قدرت واقعی تراشه  M5 را در اجرای مدل‌های زبانی بزرگ (LLM) آشکار کرده است؛ تراشه‌ای که حالا فاصله‌ای محسوس و چشمگیر با نسل پیشین خود یعنی M4 ایجاد می‌کند.

بر اساس تحلیل‌های رسمی اپل، M5 در بنچمارک مهم TTFT یا «زمان شروع اولین توکن»—لحظه‌ای حساس که کاربر پس از فشردن اینتر منتظر پاسخ هوش مصنوعی می‌ماند—نمایشی فوق‌العاده از خود ارائه می‌دهد. در این آزمون، M5 بین ۳.۳ تا ۴.۱ برابر سریع‌تر از نسل M4 عمل کرده و نشان داده است که اپل در زمینه محاسبات ماتریسی و پردازش بارهای سنگین هوش مصنوعی، وارد مرحله‌ای جدید شده است.

اپل این جهش را با طراحی شتاب‌دهنده‌های عصبی GPU جدید در تراشه M5 ممکن کرده؛ واحدهایی که به‌طور اختصاصی برای عملیات ضرب ماتریس بهینه شده‌اند و توان ناخالص محاسباتی مک‌بوک‌های جدید را به سطحی بی‌رقیب رسانده‌اند. نتایج منتشر شده برای مدل‌های مختلف هوش مصنوعی نیز این ادعا را تأیید می‌کند:

  • Qwen 14B : کاهش زمان پردازش از ۳۵.۱۵ ثانیه به ۸.۶۶ ثانیه (۴.۱ برابر سریع‌تر)
  • Qwen 8B : بهبود از ۱۸.۶ ثانیه به ۴.۶۹ ثانیه (۴ برابر سریع‌تر)
  • Qwen 30B : کاهش از ۹.۳۷ ثانیه به ۲.۶۶ ثانیه (۳.۵ برابر سریع‌تر)

تراشه M5 نشان‌دهنده تعهد اپل به آینده‌ای است که هوش مصنوعی در آن محور اصلی پردازش خواهد بود. این شرکت به‌جای افزایش صرفِ سرعت CPU یا GPU، روی شتاب‌دهنده‌های اختصاصی متمرکز شده و معماری‌ای ساخته که مستقیماً برای کار با مدل‌های زبانی بزرگ بهینه شده است. چنین رویکردی نشان می‌دهد که اپل به‌وضوح می‌داند میدان رقابت آینده فقط در بنچمارک‌ها نیست؛ بلکه در توان اجرای هوش مصنوعی روی دستگاه‌ها رقم می‌خورد. اگر جریان توسعه به همین شکل ادامه پیدا کند، مک‌بوک‌های مبتنی بر M5 می‌توانند به استاندارد جدیدی برای پردازش محلی هوش مصنوعی تبدیل شوند؛ استانداردی که رقبا ناچار به دنبال‌کردن آن خواهند بود.

شتاب تازه در نسل M5؛ اپل چگونه سرعت تولید متن را در مدل‌های هوش مصنوعی افزایش داد؟

در حالی که بخش نخست پردازش هوش مصنوعی — یعنی شروع اولین توکن (TTFT) — وابستگی شدیدی به توان خام پردازنده دارد، مرحله دوم که همان تولید کامل پاسخ و生成  کلمات بعدی است، داستان متفاوتی دارد. این مرحله بیش از هر چیز به سرعت جابه‌جایی داده‌ها میان رم و پردازنده متکی است؛ جایی که پهنای باند حافظه نقش اصلی را بازی می‌کند و خود CPU اهمیت کمتری دارد.

اپل با افزایش پهنای باند حافظه در تراشه  M5 به ۱۵۳ گیگابایت‌برثانیه—در مقایسه با ۱۲۰ گیگابایت‌برثانیه در M4—افزایشی حدود ۲۸ درصدی ایجاد کرده است. همین تغییر به ظاهر ساده اما بسیار اثرگذار، باعث شده سرعت تولید متن در مدل‌های هوش مصنوعی نیز در بنچمارک‌ها بین ۱.۱۹ تا ۱.۲۷ برابر (حدود ۱۹ تا ۲۷ درصد) ارتقا پیدا کند.
به عبارت دیگر، M5  فقط در شروع پاسخ سریع‌تر نیست؛ بلکه در ادامه مکالمه و تولید متن نیز روند روان‌تر و پیوسته‌تری ارائه می‌کند.

این بهبود نشان می‌دهد اپل دقیقاً می‌داند نقاط گلوگاهی پردازش مدل‌های زبانی کجاست. افزایش پهنای باند حافظه شاید در نگاه اول یک ارتقای تکنیکی کوچک به‌نظر برسد، اما در عمل تأثیر مستقیمی بر تجربه واقعی کاربر دارد؛ از پاسخ‌دهی سریع‌تر تا مکالمه‌های طولانی و بدون مکث. اپل با M5 نشان داده که برای رقابت در میدان هوش مصنوعی فقط روی قدرت پردازش حساب نمی‌کند، بلکه معماری کل سیستم را بازطراحی می‌کند تا هر بخش در خدمت اجرای بهتر مدل‌های هوشمند باشد. این نگاه سیستماتیک همان چیزی است که آینده پردازش محلی هوش مصنوعی را تعریف خواهد کرد.