
Google DeepMind 稍早宣布推出名為「Gemma 3」,並且能在單一GPU或TPU運行人工智慧 模型,更標榜能在LMArena測試排行的初步人類偏好評估項目超越Llama-405B、DeepSeek-V3與o3-mini 等模型表現,同時也強調能在一般規格硬體佈署高效能人工智慧應用功能。
「Gemma 3」支援超過140種語言、提供128K詞元長度的上下文擴展能力,同時也具備先進的文字與視覺分析推理能力,並且提供10億、40億、120億及270億組參數規模版本,可讓開發者依照硬體及效能需求選擇合適規模版本模型。
而「Gemma 3」更與多種開發工具相容,包括Hugging Face Transformers、Ollama、JAX、Keras、PyTorch等,另外也能在NVIDIA GPU、Google Cloud TPU、AMD GPU進行最佳化運作,目前已經可以透過Google AI Studio、Kaggle或Hugging Face等託管平台取得「Gemma 3」模型。
除了「Gemma 3」,Google DeepMind也同步推出40億參數規模的圖像安全檢查工具ShieldGemma 2,可依照具風險內容、露骨內容與暴力內容設置安全標籤,藉此讓開發者能打造更負責任且安全的人工智慧應用服務。
另外,Google也宣布推出「Gemma 3」學術計畫,藉由提供每項價值1萬美元的Google Cloud點數,讓學術研究人員以此進行更多基於「Gemma 3」的相關研究。至於目前基於Gemma打造的衍生人工智慧模型目前已經累積超過6萬種,而Gemma系列模型至今也已經累積下在超過1億次。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》