
مدل جدید و متنباز Gemma 4 از سوی گوگل اکنون قادر به اجرا بر روی سختافزارهای مصرفکننده انویدیا است و عملکرد بهینهای را برای بارهای کاری AI شخصی و کنترلی ارائه میدهد.
انویدیا با این بهروزرسانی، امکان اجرای مدلهای متنباز را به سطوح جدیدی برده و به کمک مدل Gemma 4، موج جدیدی از AI وابسته به دستگاههای محلی را رونمایی کرده است. این تغییر، به سمت استفاده از مدلها به صورت محلی و در زمان واقعی گرایش دارد که میتواند بینشهای معنادار را به اقدامات عملی تبدیل کند. مدلهای جدید گوگل در خانواده Gemma 4 به گونهای طراحی شدهاند که در گروه مدلهای کوچک، سریع و چندمنظوره جا میگیرند و برای اجرا در دستگاههای مختلف بهصورت بهینه ساخته شدهاند.
این همکاری میان گوگل و انویدیا، باعث بهینهسازی مدل Gemma 4 برای GPUهای انویدیا شده است. این بهینهسازی امکان عملکرد بهینه را در سیستمهای مختلف فراهم میآورد، از استقرار در مراکز داده تا کامپیوترهای خانگی و ایستگاههای کاری مجهز به RTX. مدلهای تازه به گروه Gemma 4 شامل انواع E2B، E4B، 26B و 31B میشوند که با توجه به نیاز به استقرار ساده و کارا طراحی شدهاند و قادر به انجام وظایف مختلفی هستند.
در این نسل جدید، قابلیتهایی برای حل مسائل پیچیده، تولید و اشکالزدایی کد، استفاده از ابزارهای ساختاریافته، و تعاملات چندرسانهای غنی وجود دارد. مدلهای E2B و E4B بهطور خاص برای اجرای با تأخیر پایین در محیطهای محلی طراحی شدهاند و میتوانند بهصورت کاملاً آفلاین عمل کنند. از سوی دیگر، مدلهای 26B و 31B برای فرآیندهای استدلالی با عملکرد بالا و جریانهای کاری توسعهدهنده بهینهسازی شدهاند و به عنوان AI کنترلی بسیار کارآمد شناخته میشوند.
این فرآیند به مدلهای Gemma 4 اجازه میدهد تا با استفاده از معماریهای قدرتمند GPU انویدیا، عملکردی مدرن و کاربردی ارائه دهند. این مدلها بهویژه در محیطهای توسعه، ابزارهای برنامهنویسی و جریانهای کاری کنترلمحور مؤثر هستند. با پیشرفت سریع AI کنترلی محلی، نرمافزارهایی همچون OpenClaw به طراحی دستیارهای AI دائمی بر روی PCهای RTX، ایستگاههای کاری و DGX Spark کمک میکند. مدلهای Gemma 4 به کاربر این امکان را میدهد که عوامل محلی قابل اطمینانای را بسازند که بتوانند از روی فایلها و کاربردهای شخصی تصمیمگیری کنند و وظایف را خودکار کنند.
برای استفاده محلی از مدلهای Gemma 4، کاربران میتوانند نرمافزار Ollama را دانلود کرده تا مدلها را اجرا کنند یا از llama.cpp استفاده کنند و آنرا با چکپوینت Hugging Face Gemma 4 جفت کنند. همچنین، هدف Unsloth، ارائه پشتیبانی روز اول با مدلهای بهینه و کمی شده است تا راحتی در تخصیص و استقرار محلی بهوجود بیاورد. به این ترتیب، راهاندازی و تنظیم مجدد مدلهای Gemma 4 در Unsloth Studio به سادگی امکانپذیر است.
مدلهای متنباز مانند خانواده Gemma 4 هنگام اجرا بر روی GPUهای انویدیا به دلیل وجود هستههای تنسور NVIDIA که بارهای کاری AI را تسریع میبخشند، عملکرد بهینهای را ارائه میدهند. این ترکیب، به مقیاسپذیری این مدلها در سیستمهای متنوع کمک میکند و از دستگاههای Jetson Orin Nano تا PCهای RTX و ایستگاههای DGX Spark بدون نیاز به بهینهسازیهای گسترده، پشتیبانی میکند. بنابراین، Gemma 4 به کمک انویدیا در راستای پیشبرد AI مبتنی بر دستگاه، جایگاهی ویژه در صنعت تکنولوژی پیدا میکند.
منبع: Wccftech — لینک
زمان انتشار منبع: 2 اپریل 2026
