18+

效能越級打怪!Google推出全新Gemma 4開放權重模型 賦予開發者真正的「數位主權」

▲Google推出全新一代「Gemma 4」開源權重模型 (Open-weight models)家族
▲Google推出全新一代「Gemma 4」開源權重模型 (Open-weight models)家族

繼去年底推出專有大型語言模型 Gemini 3 Pro之後,Google 日前宣布將該系列模型的同源技術成果帶入開源社群,推出全新一代「Gemma 4」開源權重模型家族。針對這款新模型,Google DeepMind開發者體驗負責人Omar Sanseviero與Google開發者生態系統亞太區負責人Sami Kizilbash稍早分享背後的開發策略,強調Gemma 4的核心目標是讓每一支手機與工作站都能擁有不亞於雲端巨獸的AI 大腦,同時藉由授權形式的徹底開放,賦予開發者真正的「數位主權」。

參數智力比創紀錄:擊敗體積大20倍的巨型模型

Google表示,Gemma 4達到「前所未有的單位參數智力水準」。根據Arena AI文字基準測試,Gemma 4的31B與26B參數版本表現極為強悍,分別奪下排行榜第三與第六名,其效能甚至超越體積比它們龐大20倍的巨型模型。

Sami Kizilbash指出,這種「越級打怪」的表現,意味著開發者不再需要昂貴的硬體叢集,就能在本地端實現極具深度的邏輯推理任務。

▲Gemma 3與Gemma 4系列模型特性差異
▲Gemma 3與Gemma 4系列模型特性差異

▲在Arena AI文字基準測試中,Gemma 4的31B與26B參數版本表現極...
▲在Arena AI文字基準測試中,Gemma 4的31B與26B參數版本表現極為強悍,分別奪下排行榜第三與第六名,其效能甚至超越體積比它們龐大20倍的巨型模型

四款級距全面涵蓋:從128K到256K的上下文飛躍

Omar Sanseviero進一步解析Gemma 4的產品矩陣,這次Google依照參數規模提供了四種版本:

邊緣裝置端的效率模型 (E2B / E4B):

針對智慧型手機等資源受限裝置,相比前代Gemma 3僅支援32K上下文長度,Gemma 4在相同的參數規模下,一口氣將上下文長度提升至128K。此外,這兩款輕量模型具備最強大的多模態整合,同時支援文字、電腦視覺、影片與圖片生成,以及聲音識別。

高階工作站與伺服器模型 (26B MoE / 31B Dense):

26B版本採混合專家 (MoE,Mixture of Experts)系統,31B則為密集 (Dense)系統。這兩款模型支援高達256K的內文長度,並且首度加入了進階的「推論功能」 (Reasoning)。不過,Sami Kizilbash也補充,目前這兩款較大參數的版本尚未支援聲音識別,將是未來最佳化的重點。

▲Gemma 4模型涵蓋文字識別、電腦視覺、影片與圖片生成等功能
▲Gemma 4模型涵蓋文字識別、電腦視覺、影片與圖片生成等功能

徹底釋放數位主權:首度擁抱Apache 2.0授權

這次Gemma 4最令開發社群振奮的改變,莫過於首度捨棄自家的Gemma授權條款,全面改採業界廣泛認可的Apache 2.0授權。

這項轉變意味著開發者對於數據、基礎設施與模型擁有完全的控制權,可以更自由地將模型修改、佈署至地端伺服器 (On-premises)或任何雲端環境中,完全無須擔憂商業限制或資安外洩風險。

目前,開發者已可透過Hugging Face、Kaggle與Ollama等平台取得權重,並且進行測試。

▲左起:Google DeepMind開發者體驗負責人Omar Sansevie...
▲左起:Google DeepMind開發者體驗負責人Omar Sanseviero與Google開發者生態系統亞太區負責人Sami Kizilbash

雲端與離線的完美補完計畫

在訪談最後,兩位負責人強調Google的AI雙軌策略:擁有極致算力的雲端Gemini模型與可在裝置端離線運作的Gemma 4。

這兩者並非競爭關係,而是高度互補。開發者可以利用雲端Gemini處理極端複雜、需龐大算力的任務,同時利用Gemma 4在終端設備上處理即時推論、多模態識別與「離線程式碼生成」 (Vibe coding)。

這種組合,讓開發者在隱私保護、低延遲與效能之間取得前所未有的彈性與優勢。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱