در رویداد Google I/O 2025، غول فناوری از مدل زبانی جدید خود با نام Gemma 3n رونمایی کرد. این مدل کوچک اما قدرتمند برای اجرا شدن مستقیم روی دستگاههای شخصی شما طراحی شده است. یکی از مهمترین پیشرفتهای Gemma 3n، بهرهگیری از فناوری Per-Layer Embeddings (PLE) توسعهیافته توسط Google DeepMind است که میزان حافظه مورد نیاز برای اجرای مدل را کاهش میدهد.
در حالی که تعداد پارامترهای خام این مدل 5 و 8 میلیارد است، اما میزان مصرف حافظه آن با مدلهای 2 و 4 میلیاردی قابل مقایسه است. به گفته گوگل، این مدل میتواند با فقط 2 یا 3 گیگابایت حافظه اجرا شود. مزایای دیگر این مدل شامل موارد زیر است:
- سرعت پاسخدهی 1.5 برابر بیشتر روی گوشیهای هوشمند نسبت به نسخه قبلی، به لطف تکنیکهایی مانند PLE و بهینهسازی فعالسازیها.
- اجرای محلی بدون نیاز به اینترنت؛ تمام پردازشها روی دستگاه کاربر انجام میشود و هیچ دادهای به سرور ارسال نمیشود.
- پشتیبانی بهبودیافته از چندین زبان غیر انگلیسی مانند ژاپنی، آلمانی، کرهای، اسپانیایی و فرانسوی.
- قابلیت درک چندرسانهای (متن، صوت، تصویر و ویدیو) که امکان انجام ترجمه، بازنویسی و تحلیل اطلاعات پیچیده را فراهم میکند.
هماکنون میتوانید Gemma 3n را در Google AI Studio امتحان کنید، بدون نیاز به نصب یا تنظیمات خاص! توسعهدهندگانی که مایل به اجرای این مدل بهصورت محلی هستند، میتوانند از طریق Google AI Edge به ابزارها و کتابخانههای لازم دسترسی پیدا کنند.