اپل در تازهترین گزارش تحقیقاتی خود بار دیگر نشان داد که چرا همچنان یکی از بازیگران تعیینکننده در دنیای پردازش است. این شرکت با اتکا به فریمورک متنباز و اختصاصی خود، MLX، قدرت واقعی تراشه M5 را در اجرای مدلهای زبانی بزرگ (LLM) آشکار کرده است؛ تراشهای که حالا فاصلهای محسوس و چشمگیر با نسل پیشین خود یعنی M4 ایجاد میکند.
بر اساس تحلیلهای رسمی اپل، M5 در بنچمارک مهم TTFT یا «زمان شروع اولین توکن»—لحظهای حساس که کاربر پس از فشردن اینتر منتظر پاسخ هوش مصنوعی میماند—نمایشی فوقالعاده از خود ارائه میدهد. در این آزمون، M5 بین ۳.۳ تا ۴.۱ برابر سریعتر از نسل M4 عمل کرده و نشان داده است که اپل در زمینه محاسبات ماتریسی و پردازش بارهای سنگین هوش مصنوعی، وارد مرحلهای جدید شده است.
اپل این جهش را با طراحی شتابدهندههای عصبی GPU جدید در تراشه M5 ممکن کرده؛ واحدهایی که بهطور اختصاصی برای عملیات ضرب ماتریس بهینه شدهاند و توان ناخالص محاسباتی مکبوکهای جدید را به سطحی بیرقیب رساندهاند. نتایج منتشر شده برای مدلهای مختلف هوش مصنوعی نیز این ادعا را تأیید میکند:
- Qwen 14B : کاهش زمان پردازش از ۳۵.۱۵ ثانیه به ۸.۶۶ ثانیه (۴.۱ برابر سریعتر)
- Qwen 8B : بهبود از ۱۸.۶ ثانیه به ۴.۶۹ ثانیه (۴ برابر سریعتر)
- Qwen 30B : کاهش از ۹.۳۷ ثانیه به ۲.۶۶ ثانیه (۳.۵ برابر سریعتر)
تراشه M5 نشاندهنده تعهد اپل به آیندهای است که هوش مصنوعی در آن محور اصلی پردازش خواهد بود. این شرکت بهجای افزایش صرفِ سرعت CPU یا GPU، روی شتابدهندههای اختصاصی متمرکز شده و معماریای ساخته که مستقیماً برای کار با مدلهای زبانی بزرگ بهینه شده است. چنین رویکردی نشان میدهد که اپل بهوضوح میداند میدان رقابت آینده فقط در بنچمارکها نیست؛ بلکه در توان اجرای هوش مصنوعی روی دستگاهها رقم میخورد. اگر جریان توسعه به همین شکل ادامه پیدا کند، مکبوکهای مبتنی بر M5 میتوانند به استاندارد جدیدی برای پردازش محلی هوش مصنوعی تبدیل شوند؛ استانداردی که رقبا ناچار به دنبالکردن آن خواهند بود.
شتاب تازه در نسل M5؛ اپل چگونه سرعت تولید متن را در مدلهای هوش مصنوعی افزایش داد؟
در حالی که بخش نخست پردازش هوش مصنوعی — یعنی شروع اولین توکن (TTFT) — وابستگی شدیدی به توان خام پردازنده دارد، مرحله دوم که همان تولید کامل پاسخ و生成 کلمات بعدی است، داستان متفاوتی دارد. این مرحله بیش از هر چیز به سرعت جابهجایی دادهها میان رم و پردازنده متکی است؛ جایی که پهنای باند حافظه نقش اصلی را بازی میکند و خود CPU اهمیت کمتری دارد.
اپل با افزایش پهنای باند حافظه در تراشه M5 به ۱۵۳ گیگابایتبرثانیه—در مقایسه با ۱۲۰ گیگابایتبرثانیه در M4—افزایشی حدود ۲۸ درصدی ایجاد کرده است. همین تغییر به ظاهر ساده اما بسیار اثرگذار، باعث شده سرعت تولید متن در مدلهای هوش مصنوعی نیز در بنچمارکها بین ۱.۱۹ تا ۱.۲۷ برابر (حدود ۱۹ تا ۲۷ درصد) ارتقا پیدا کند.
به عبارت دیگر، M5 فقط در شروع پاسخ سریعتر نیست؛ بلکه در ادامه مکالمه و تولید متن نیز روند روانتر و پیوستهتری ارائه میکند.
این بهبود نشان میدهد اپل دقیقاً میداند نقاط گلوگاهی پردازش مدلهای زبانی کجاست. افزایش پهنای باند حافظه شاید در نگاه اول یک ارتقای تکنیکی کوچک بهنظر برسد، اما در عمل تأثیر مستقیمی بر تجربه واقعی کاربر دارد؛ از پاسخدهی سریعتر تا مکالمههای طولانی و بدون مکث. اپل با M5 نشان داده که برای رقابت در میدان هوش مصنوعی فقط روی قدرت پردازش حساب نمیکند، بلکه معماری کل سیستم را بازطراحی میکند تا هر بخش در خدمت اجرای بهتر مدلهای هوشمند باشد. این نگاه سیستماتیک همان چیزی است که آینده پردازش محلی هوش مصنوعی را تعریف خواهد کرد.
