استارتاپ چینی دیپسیک از مدل هوش مصنوعی آزمایشی تازهای با نام DeepSeek-V3.2-Exp رونمایی کرده است که با بهرهگیری از معماری نوین » توجه پراکنده (DSA) « وعده میدهد هزینه پردازش متون طولانی را تا نصف کاهش دهد. این پیشرفت میتواند دسترسی به مدلهای قدرتمند هوش مصنوعی را برای شرکتهای کوچک و استارتاپها نیز ممکن سازد.
مدلهای سنتی هوش مصنوعی برای تحلیل یک متن، مجبورند به تمامی کلمات و جملات توجه کنند که در متون طولانی، نیازمند قدرت محاسباتی و سرور بسیار زیادی است. اما رویکرد جدید توجه پراکنده مسیر متفاوتی را پیش گرفته است. این سیستم به جای پردازش کل متن، تنها بخشهای مهم و کلیدی را شناسایی کرده و تحلیل نهایی را بر روی آنها انجام میدهد. همانند یک شرکت هواپیمایی که برای یافتن بهترین مسیر، تمام مسیرهای ممکن را بررسی نمیکند و تنها گزینههای منطقی را فیلتر میکند، این معماری نیز «توکنها» یا بخشهای مهم متن را گزینش میکند.
با این روش، بار محاسباتی به شدت کاهش مییابد و بر اساس ادعای دیپسیک، هزینه استفاده از API در سناریوهای دارای متون طولانی تا ۵۰ درصد کاهش پیدا میکند. این نوآوری میتواند در زمینههایی مانند تحلیل دادههای بزرگ، پردازش اسناد قانونی و گزارشهای طولانی یا هر محیطی که نیازمند پردازش متون طولانی باشد، تحولی اساسی ایجاد کند.
این حرکت دیپسیک نشاندهنده یک گام مهم در بهینهسازی و مقرونبهصرفه کردن هوش مصنوعی است. با کاهش چشمگیر بار محاسباتی، شرکتهای کوچک و متوسط هم میتوانند از مدلهای قدرتمند AI بهره ببرند، بدون آنکه نیازمند سرمایهگذاری سنگین روی سرورها و زیرساختهای گرانقیمت باشند. رویکرد «توجه پراکنده» میتواند در آینده استاندارد جدیدی برای پردازش دادههای طولانی در هوش مصنوعی ایجاد کند و دسترسی به این فناوری را دموکراتیکتر کند.
معماری نوین دیپسیک و چالشهای اطمینانپذیری
به گزارش CNBC، نوآوری جدید دیپسیک خبر خوشی برای کل اکوسیستم فناوری است. کاهش چشمگیر هزینههای پردازش متون طولانی، به معنای آن است که توسعهدهندگان، محققان و شرکتهای کوچکتر که توان مالی محدودی دارند، حالا میتوانند از مدلهای قدرتمند هوش مصنوعی برای طراحی اپلیکیشنها و خدمات خود بهرهمند شوند. این پیشرفت میتواند جرقهای برای موج تازهای از خلاقیت و رقابت در بازار فناوری باشد.
با این حال، هر نوآوری بزرگی چالشهای خاص خود را نیز دارد. یکی از نگرانیهای اساسی اطمینانپذیری است: هوش مصنوعی چگونه تشخیص میدهد کدام بخش از دادهها اهمیت دارد و کدام بخش باید کنار گذاشته شود؟
«اکاترینا آلماسک»، یکی از سرمایهگذاران برجسته حوزه AI، میگوید: «واقعیت این است که مدلهای توجه پراکنده بسیاری از ظرافتها را از دست میدهند. سؤال واقعی این است که آیا آنها مکانیسم مطمئنی برای حذف دادههای غیرمهم دارند؟»
این موضوع به ویژه از منظر ایمنی و عدالت هوش مصنوعی اهمیت دارد. اگر مدل بهطور سیستماتیک دادههای مربوط به یک گروه یا دیدگاه خاص را «غیرمهم» تشخیص دهد، خروجی آن ممکن است مغرضانه، غیرقابل اعتماد و حتی خطرناک باشد. بنابراین، معماریهای جدید باید نه تنها بر کاهش هزینه تمرکز کنند، بلکه تضمین کنند که کیفیت و عدالت نتایج نیز حفظ شود.
در حالی که کاهش هزینههای پردازش میتواند دسترسی به AI را دموکراتیکتر کند، مسئله اطمینانپذیری و بیطرفی نباید نادیده گرفته شود. موفقیت واقعی این نوع معماریها زمانی حاصل میشود که ترکیبی از کارایی بالا و دقت اخلاقی را ارائه دهند؛ در غیر این صورت، کاهش هزینه میتواند به قیمت تولید خروجیهای مغرضانه یا ناقص تمام شود.
