فهرست سایت
سخت افزار نوشته شده در تاریخ ۶ آبان ۱۴۰۴ توسط ادمین

عرضه کارت‌های شتاب دهنده AI200 و AI250 کوالکام برای استنتاج هوش مصنوعی

عرضه کارت‌های شتاب دهنده AI200 و AI250 کوالکام برای استنتاج هوش مصنوعی

کوالکام امروز از نسل جدید راهکارهای پیشرفته برای پردازش هوش مصنوعی در مراکز داده رونمایی کرد: کارت‌های شتاب‌دهنده با تراشه‌های AI200 و AI250 و رک‌های مرتبط. این راهکارها که بر پایه فناوری NPU اختصاصی کوالکام طراحی شده‌اند، عملکردی در مقیاس رک، حافظه بالا، و بهره‌وری عالی در استنتاج مدل‌های مولد هوش مصنوعی ارائه می‌دهند. این نوآوری گامی مهم در پیاده‌سازی هوش مصنوعی کارآمد، مقیاس‌پذیر، و انعطاف‌پذیر در صنایع مختلف است.

مدل AI200 به‌عنوان راهکاری اختصاصی در سطح رک برای استنتاج مدل‌های زبانی بزرگ (LLM) و چندحالته (LMM) طراحی شده است. این کارت از 768 گیگابایت حافظه LPDDR در هر واحد پشتیبانی می‌کند که ظرفیت بالا و هزینه پایین را همزمان فراهم می‌سازد و امکان مقیاس‌پذیری و انعطاف‌پذیری چشم‌گیری را در اجرای بارهای کاری هوش مصنوعی فراهم می‌آورد.

مدل AI250 نیز با معماری حافظه نوآورانه مبتنی بر محاسبات نزدیک به حافظه (Near-Memory Computing) عرضه خواهد شد که جهشی نسلی در بهره‌وری و عملکرد استنتاج هوش مصنوعی ایجاد می‌کند. این معماری بیش از 10 برابر پهنای باند مؤثر حافظه را افزایش داده و مصرف انرژی را به‌طور قابل توجهی کاهش می‌دهد، و در نتیجه امکان استنتاج غیرمتمرکز و بهره‌برداری بهینه از سخت‌افزار را فراهم می‌سازد.

هر دو راهکار رک از خنک‌سازی مستقیم مایع برای مدیریت حرارتی، رابط PCIe برای مقیاس‌پذیری عمودی، Ethernet برای مقیاس‌پذیری افقی، و قابلیت محاسبات محرمانه برای اجرای ایمن بارهای کاری هوش مصنوعی بهره می‌برند. توان مصرفی هر رک برابر با 160 کیلووات اعلام شده است. دورگا مالادی، معاون ارشد و مدیر برنامه‌ریزی فناوری و راه‌حل‌های پیشرفته کوالکام، اظهار داشت:

با معرفی AI200 و AI250، ما تعریف جدیدی از استنتاج هوش مصنوعی در مقیاس رک ارائه می‌دهیم. این زیرساخت‌های نوآورانه به مشتریان امکان می‌دهند تا مدل‌های مولد هوش مصنوعی را با هزینه مالکیت بی‌سابقه، انعطاف‌پذیری بالا، و امنیت مورد نیاز مراکز داده مدرن پیاده‌سازی کنند.

پشته نرم‌افزاری کوالکام برای هوش مصنوعی در مقیاس hyperscaler به‌طور کامل برای استنتاج بهینه شده و از لایه‌های کاربردی تا نرم‌افزار سیستمی را پوشش می‌دهد. این پشته از چارچوب‌های برتر یادگیری ماشین، موتورهای استنتاج، چارچوب‌های تولیدکننده هوش مصنوعی و تکنیک‌های بهینه‌سازی مدل‌های LLM/LMM مانند سرویس‌دهی غیرمتمرکز پشتیبانی می‌کند. توسعه‌دهندگان می‌توانند مدل‌های Hugging Face را به‌سادگی از طریق کتابخانه Efficient Transformers و مجموعه Qualcomm AI Inference Suite پیاده‌سازی کنند.

این راهکارها شامل اپلیکیشن‌ها و عامل‌های آماده، ابزارها، کتابخانه‌ها، APIها و خدمات جامع برای اجرای هوش مصنوعی هستند. کارت‌های AI200 و AI250 قرار است به ترتیب در سال‌های 2026 و 2027 به صورت تجاری عرضه شوند. کوالکام متعهد است نقشه راه مراکز داده خود را با تمرکز بر عملکرد برتر در استنتاج هوش مصنوعی، بهره‌وری انرژی و هزینه مالکیت بهینه به صورت سالانه ادامه دهد.

لینک کوتاه

ارسال دیدگاه

پاسخ به (لغو پاسخ)