شرکت OpenAI ماه گذشته از همکاری با Cerebras، استارتآپ حوزه هوش مصنوعی که سیستمهای تخصصی برای تسریع خروجیهای طولانی مدلهای هوش مصنوعی میسازد، خبر داد. در آن زمان اوپنایآی اعلام کرد که فناوری کمتأخیر سربرس را بهتدریج در پشته استنتاج خود ادغام خواهد کرد تا از بارهای کاری مختلف از جمله تولید کد و ایجاد تصویر پشتیبانی کند.
امروز، OpenAI از پیشنمایش تحقیقاتی مدل GPT-5.3-Codex-Spark رونمایی کرد؛ نسخه کوچکشدهای از GPT-5.3-Codex که برای سناریوهای کدنویسی بلادرنگ طراحی شده و با موتور Wafer Scale Engine 3 سربرس کار میکند. اوپنایآی ادعا میکند Codex-Spark میتواند بیش از 1000 توکن در ثانیه تولید کند و همزمان توانایی بالایی نیز حفظ کند. با این حال، از آنجا که این مدل کوچکتر است، انتظار نمیرود عملکردی همتراز با نسخه کامل GPT-5.3-Codex-Spark داشته باشد؛ OpenAI میگوید عملکرد آن در بازهای میان GPT-۵.۳-Codex و GPT-5.1-Codex-Mini قرار میگیرد.
در حال حاضر، Codex-Spark از پنجره بافت 128 هزار توکنی و ورودی متنی صرف پشتیبانی میکند. OpenAI قصد دارد در آینده پشتیبانی از مدلهای بزرگتر، طول بافت بیشتر و ورودی چندوجهی را نیز اضافه کند. از آنجا که این عرضه بهصورت محدود برای کاربران ChatGPT Pro انجام میشود، این مدل محدودیت نرخ مخصوص به خود را خواهد داشت، اما استفاده از آن مشمول سهمیه استاندارد نخواهد شد. در صورت افزایش ناگهانی تقاضا، اوپنایآی ممکن است دسترسی را محدودتر کرده یا کاربران را بهطور موقت در صف قرار دهد تا قابلیت اطمینان حفظ شود.
کاربران اشتراک ChatGPT Pro میتوانند با بهروزرسانی به آخرین نسخههای اپلیکیشن Codex، رابط خط فرمان (CLI) و افزونه VS Code، این مدل فوقکمتأخیر را امتحان کنند. اوپنایآی همچنین Codex-Spark را از طریق API در اختیار گروه کوچکی از شرکای طراحی قرار میدهد تا دریابد توسعهدهندگان چگونه تمایل به ادغام آن در سایر محصولات و خدمات دارند.
OpenAI مجدداً تأکید کرد که پردازندههای گرافیکی همچنان پلتفرم محاسباتی اصلی در پایپ لاین آموزش و استنتاج آن برای مصارف عمومی محسوب میشوند. با این حال، فناوری Cerebras را گزینه مناسبتری برای بارهای کاری بسیار کمتأخیر Codex معرفی کرد. این شرکت افزود که میتوان پردازندههای گرافیکی و سیستمهای سربرس را در یک بار کاری واحد ترکیب کرد تا به بهترین عملکرد کلی دست یافت.