کوالکام امروز از نسل جدید راهکارهای پیشرفته برای پردازش هوش مصنوعی در مراکز داده رونمایی کرد: کارتهای شتابدهنده با تراشههای AI200 و AI250 و رکهای مرتبط. این راهکارها که بر پایه فناوری NPU اختصاصی کوالکام طراحی شدهاند، عملکردی در مقیاس رک، حافظه بالا، و بهرهوری عالی در استنتاج مدلهای مولد هوش مصنوعی ارائه میدهند. این نوآوری گامی مهم در پیادهسازی هوش مصنوعی کارآمد، مقیاسپذیر، و انعطافپذیر در صنایع مختلف است.
مدل AI200 بهعنوان راهکاری اختصاصی در سطح رک برای استنتاج مدلهای زبانی بزرگ (LLM) و چندحالته (LMM) طراحی شده است. این کارت از 768 گیگابایت حافظه LPDDR در هر واحد پشتیبانی میکند که ظرفیت بالا و هزینه پایین را همزمان فراهم میسازد و امکان مقیاسپذیری و انعطافپذیری چشمگیری را در اجرای بارهای کاری هوش مصنوعی فراهم میآورد.
مدل AI250 نیز با معماری حافظه نوآورانه مبتنی بر محاسبات نزدیک به حافظه (Near-Memory Computing) عرضه خواهد شد که جهشی نسلی در بهرهوری و عملکرد استنتاج هوش مصنوعی ایجاد میکند. این معماری بیش از 10 برابر پهنای باند مؤثر حافظه را افزایش داده و مصرف انرژی را بهطور قابل توجهی کاهش میدهد، و در نتیجه امکان استنتاج غیرمتمرکز و بهرهبرداری بهینه از سختافزار را فراهم میسازد.
هر دو راهکار رک از خنکسازی مستقیم مایع برای مدیریت حرارتی، رابط PCIe برای مقیاسپذیری عمودی، Ethernet برای مقیاسپذیری افقی، و قابلیت محاسبات محرمانه برای اجرای ایمن بارهای کاری هوش مصنوعی بهره میبرند. توان مصرفی هر رک برابر با 160 کیلووات اعلام شده است. دورگا مالادی، معاون ارشد و مدیر برنامهریزی فناوری و راهحلهای پیشرفته کوالکام، اظهار داشت:
با معرفی AI200 و AI250، ما تعریف جدیدی از استنتاج هوش مصنوعی در مقیاس رک ارائه میدهیم. این زیرساختهای نوآورانه به مشتریان امکان میدهند تا مدلهای مولد هوش مصنوعی را با هزینه مالکیت بیسابقه، انعطافپذیری بالا، و امنیت مورد نیاز مراکز داده مدرن پیادهسازی کنند.
پشته نرمافزاری کوالکام برای هوش مصنوعی در مقیاس hyperscaler بهطور کامل برای استنتاج بهینه شده و از لایههای کاربردی تا نرمافزار سیستمی را پوشش میدهد. این پشته از چارچوبهای برتر یادگیری ماشین، موتورهای استنتاج، چارچوبهای تولیدکننده هوش مصنوعی و تکنیکهای بهینهسازی مدلهای LLM/LMM مانند سرویسدهی غیرمتمرکز پشتیبانی میکند. توسعهدهندگان میتوانند مدلهای Hugging Face را بهسادگی از طریق کتابخانه Efficient Transformers و مجموعه Qualcomm AI Inference Suite پیادهسازی کنند.
این راهکارها شامل اپلیکیشنها و عاملهای آماده، ابزارها، کتابخانهها، APIها و خدمات جامع برای اجرای هوش مصنوعی هستند. کارتهای AI200 و AI250 قرار است به ترتیب در سالهای 2026 و 2027 به صورت تجاری عرضه شوند. کوالکام متعهد است نقشه راه مراکز داده خود را با تمرکز بر عملکرد برتر در استنتاج هوش مصنوعی، بهرهوری انرژی و هزینه مالکیت بهینه به صورت سالانه ادامه دهد.