繼去年底推出專有大型語言模型 Gemini 3 Pro之後,Google 日前宣布將該系列模型的同源技術成果帶入開源社群,推出全新一代「Gemma 4」開源權重模型家族。針對這款新模型,Google DeepMind開發者體驗負責人Omar Sanseviero與Google開發者生態系統亞太區負責人Sami Kizilbash稍早分享背後的開發策略,強調Gemma 4的核心目標是讓每一支手機與工作站都能擁有不亞於雲端巨獸的AI 大腦,同時藉由授權形式的徹底開放,賦予開發者真正的「數位主權」。
參數智力比創紀錄:擊敗體積大20倍的巨型模型
Google表示,Gemma 4達到「前所未有的單位參數智力水準」。根據Arena AI文字基準測試,Gemma 4的31B與26B參數版本表現極為強悍,分別奪下排行榜第三與第六名,其效能甚至超越體積比它們龐大20倍的巨型模型。
Sami Kizilbash指出,這種「越級打怪」的表現,意味著開發者不再需要昂貴的硬體叢集,就能在本地端實現極具深度的邏輯推理任務。
四款級距全面涵蓋:從128K到256K的上下文飛躍
Omar Sanseviero進一步解析Gemma 4的產品矩陣,這次Google依照參數規模提供了四種版本:
邊緣裝置端的效率模型 (E2B / E4B):
針對智慧型手機等資源受限裝置,相比前代Gemma 3僅支援32K上下文長度,Gemma 4在相同的參數規模下,一口氣將上下文長度提升至128K。此外,這兩款輕量模型具備最強大的多模態整合,同時支援文字、電腦視覺、影片與圖片生成,以及聲音識別。
高階工作站與伺服器模型 (26B MoE / 31B Dense):
26B版本採混合專家 (MoE,Mixture of Experts)系統,31B則為密集 (Dense)系統。這兩款模型支援高達256K的內文長度,並且首度加入了進階的「推論功能」 (Reasoning)。不過,Sami Kizilbash也補充,目前這兩款較大參數的版本尚未支援聲音識別,將是未來最佳化的重點。
徹底釋放數位主權:首度擁抱Apache 2.0授權
這次Gemma 4最令開發社群振奮的改變,莫過於首度捨棄自家的Gemma授權條款,全面改採業界廣泛認可的Apache 2.0授權。
這項轉變意味著開發者對於數據、基礎設施與模型擁有完全的控制權,可以更自由地將模型修改、佈署至地端伺服器 (On-premises)或任何雲端環境中,完全無須擔憂商業限制或資安外洩風險。
目前,開發者已可透過Hugging Face、Kaggle與Ollama等平台取得權重,並且進行測試。
雲端與離線的完美補完計畫
在訪談最後,兩位負責人強調Google的AI雙軌策略:擁有極致算力的雲端Gemini模型與可在裝置端離線運作的Gemma 4。
這兩者並非競爭關係,而是高度互補。開發者可以利用雲端Gemini處理極端複雜、需龐大算力的任務,同時利用Gemma 4在終端設備上處理即時推論、多模態識別與「離線程式碼生成」 (Vibe coding)。
這種組合,讓開發者在隱私保護、低延遲與效能之間取得前所未有的彈性與優勢。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

討論區