18+

Google正式向開發者、研究人員開放使用可對應270億組參數的開源模型Gemma 2

Google在今年Google I/O 2024期間宣布推出全新開源模型Gemma 2,本身針對TPU、GPU加速最佳化,並且能輸出2倍高的模型運行效能,最多更可對應270億組參數,但同時也提供可對應90億組參數的小規模版本,接下來也會提供更小規模設計的26億組參數版本,將可在手機端執行。

在稍早說明中,Gemma 2可透過數據建模與數據分析競賽平台Kaggle取得,或是透過全名為Colaboratory的網頁編寫程式平台Colab免費服務取用,而學術研究人員也能透過研究計畫申請使用。

從相關模測流程中,Gemma 2 270億組參數版本在微調模式中的執行效能,可超越700億參數規模的Llama 3,同時也超越3400億組參數的Nemotron 4,以及Claude 3 Sonnet、Command R+、Qwen 72B等模型,至於90億組參數版本更成為當前150億組參數以下規模最佳效能模型。

依照說明,90億組參數版本的Gemma 2在4096組TPU v4構成運算叢集訓練,270億組參數規模版本則是在TPU v5p運算叢集上訓練,總計使用6144組晶片。而整體架構上,Gemma 2採重新設計形式打造,導入類似Gemma 1.1的運算模式,但是加上更多學習監督與模型合併,使Gemma 2在編成、數學、推理及安全等項目對比Gemma 1.1均有明顯提升。

此外,Gemma 2 270億組參數規模版本可在Google Cloud TPU伺服器、NVIDIA A100 80GB Tensor Core GPU或H100 Tensor Core GPU上,以高效能執行全精度推理,可在維持高效能運算的同時降低運作成本,藉此讓企業、開發者能以更經濟實惠方式執行、佈署人工智慧服務。

而Google也強調以負責任形式打造Gemma 2,同時也說明應用Gemma 2的安全特性,並且遵循內部安全流程,將訓練前的數據進行過濾,避免出現潛在偏見等風險。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱