نرم افزار و اینترنت

اپرا اکنون به کاربران اجازه می دهد تا LLMها را به صورت لوکال اجرا کنند

اپرا ویژگی جدیدی را معرفی کرده که به کاربران امکان می دهد مدل های زبان بزرگ (LLM) را به صورت لوکال در رایانه خود دانلود و استفاده کنند. این ویژگی برای کاربران Opera One که به‌روزرسانی‌های استریم توسعه‌دهنده را دریافت می‌کنند در دسترس است. با آن، کاربران می توانند به بیش از 150 مدل از بیش از 50 خانواده، از جمله Llama از متا، Gemma از گوگل، Vicuna، Mistral AI و غیره دسترسی داشته باشند.

اپرا این ویژگی‌های جدید را به عنوان بخشی از “برنامه دراپ ویژگی‌ هوش مصنوعی” خود می‌خواند و وعده داده که داده‌های کاربر به صورت لوکال در دستگاه آن‌ها نگهداری می‌شود و به آن‌ها اجازه می‌دهد بدون نیاز به ارسال اطلاعات به سرور از هوش مصنوعی مولد استفاده کنند. این شرکت از چارچوب متن باز Ollama برای اجرای این مدل ها بر روی رایانه های کاربران استفاده می کند. هر نوع از مدل ها بین 2 تا 10 گیگابایت فضای روی سیستم نیاز دارد.

اپرا سخت تلاش می کند تا با این ویژگی های جدید از هوش مصنوعی استفاده کند، اگرچه LLM های محلی اولین چیزی نیستند که مرورگر دارای هوش مصنوعی است. با راه اندازی Opera One در سال گذشته، این شرکت به وضوح نشان داد که تلاش می کند یک مرورگر پرچمدار مبتنی بر هوش مصنوعی باشد و حتی آریا، دستیار هوش مصنوعی خود را راه اندازی کرد. این ویژگی ها به Opera کمک می کند تا با ارائه ویژگی های منحصر به فرد و نوآورانه به کاربران خود، سهم بازار خود را افزایش دهد. طبق آمار Statcounter، از مارس 2024، اپرا سهم بازار مرورگرهای دسکتاپ 3.15 درصد را دارد.

منبع
neowin
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا