DeepSeek، استارتاپ چینی که با مدل استدلالی R1 توجه بسیاری را به خود جلب کرد، نسخه جدیدی از این مدل را با نام DeepSeek-R1-0528 منتشر کرده است. این مدل که بهصورت متنباز ارائه شده، عملکردی در سطح مدلهای پیشرفته شرکتهای بزرگ OpenAI، Anthropic و Google دارد و در عین حال، با استفاده از منابع کمتر، کارایی بالایی را ارائه میدهد.
بهبودهای این نسخه شامل معماری ترکیبی متخصصان (MoE)، روشهای فشردهسازی پیشرفته، توانایی پیشبینی چندین توکن بهطور همزمان و رویکرد آموزش مبتنی بر یادگیری تقویتی است. این تغییرات باعث شدهاند که مدل جدید بتواند استدلالهای عمیقتری ارائه دهد و در برخی آزمایشها، عملکرد بهتری نسبت به مدلهای رقیب داشته باشد.
بر اساس گزارشهای منتشرشده، مدل DeepSeek-R1-0528 در رتبهبندی LiveCodeBench، که توانایی مدلهای زبانی در کدنویسی را ارزیابی میکند، به رتبه چهارم رسیده و از مدلهایی مانند o4 Mini (Low)، Grok-3-mini (High) و Gemini 2.5 Flash Preview پیشی گرفته است.
همچنین، برخی کاربران اعلام کردهاند که این مدل میتواند تا 30 تا 60 دقیقه روی یک مسئله فکر کند و استدلالهای پیچیدهای ارائه دهد. این ویژگی، آن را به یکی از مدلهای هوش مصنوعی با توانایی تفکر طولانیمدت تبدیل کرده است. علاقهمندان میتوانند نسخه جدید DeepSeek-R1-0528 را از طریق Hugging Face دریافت کنند یا آن را در OpenRouter و LMArena آزمایش کنند.
ارسال دیدگاه