18+

Google說明代號Trillium的第6代TPU僅是其加速運算一環,並未考慮打造個人化超級電腦

針對去年在Google I/O 2024揭曉、代號Trillium的第6代TPU ,Google Cloud產品群經理Mohan Pichika稍早對此做了進一步說明,並且強調目前在Google Cloud服務提供更多元加速運算元件選擇,藉此滿足不同客戶在服務佈署應用需求。

TPU只是Google Cloud加速運算一環

對於目前市場目標發展的通用型人工智慧 (AGI),衍生是否能以統一加速元件支撐運算需求的看法,Mohan Pichika認為現階段還沒有辦法實現此理想,因此最主要還是會針對不同運算需求提供合適的加速元件。

例如目前在Google Cloud服務中,除了提供自身TPU加速元件之外,實際上也與Intel、AMD、NVDIA等處理器業者合作,後續也提供以Arm Neroverse架構打造的客製化處理器「Axion」,藉此滿足不同客戶在運算佈署需求的差異。

而自2015年提出的第1代TPU設計,主要是針對Google自有服務如YouTube、Google Search等進行大規模運算加速。而從2018年推出第2代TPU開始,Google便將其TPU與後續迭代更新版本開放全球所有Google Cloud客戶使用 (包含台灣),其中也包含去年推出、以代號Trillium為稱的第6代TPU,只是各個服務區域上線提供時間會有落差,但基本上都能讓所有Google Cloud客戶選用。

不過,Mohan Pichika也說明不同加速元件能處理項目會有最佳化差異,加上性能與價格成本上的考量,因此在Google Cloud服務仍維持提供不同加速元件選項,讓不同客戶能挑選最佳加速元件佈署服務,同時也能對應不同人工智慧模型規模運算需求。

在去年的Google NEXT’24期間說明中,Google Cloud副總裁暨運算與人工智慧/機器學習架構業務總經理Mark Lohmeyer更透露未來可能計畫推出更多客製化處理器,意味Google接下來也會針對不同運算需求提供功能差異設計的客製化處理器。

▲以Arm Neroverse架構打造的客製化處理器「Axion」
▲以Arm Neroverse架構打造的客製化處理器「Axion」

TPU本身以大規模運算加速、提升機器學習效率為目標

至於TPU本身主要還是以大規模運算加速、提升機器學習效率為目標,包含此次在第6代TPU強化矩陣乘法單元 (MXU)、提高運作時脈與HBM記憶體容量都是為了加快運算效率,並且能透過Jupiter網路架構形成更大Pod運算規模 (以256組構成單一Pod),並且進一步擴展至超算規模,讓所有TPU都能以每秒達PB級別傳輸速度互連運作。

但是對於第6代TPU之間以客製化光通訊技術實現晶片 對晶片直接連接,使其資料傳輸頻寬增加的作法,是否與NVIDIA提出的NVLink,或是類似蘋果在Apple Silicon處理器採用的UltraFusion融合設計作法相似,Google方面並未具體作分享。

以目前第6代TPU設計來看,訓練效能提升為前一代的4倍以上、推論處理量峰值表現增加為3倍、能源效率提升67%、每個晶片峰值效能比前一代提升4.7倍,而HBM記憶體容量提升1倍、晶片間互連網路傳輸頻寬提升1倍,並且能以Jupiter網路架構連接多達10萬組TPU,形成龐大運算網路。

另外,第6代TPU在每美元的訓練效能比前一代產品提升2.5倍,推論效能則可提升1.4倍,因此強調在永續表現也有大幅提升。

目前並未計畫跟進推出在地人工智慧裝置解決方案或小型超級電腦

而NVIDIA在CES 2025以其Blackwell架構GPU配合客製化Arm架構處理器打造超小型AI超級電腦「Project DIGITS」,Qualcomm也以其Cloud AI加速器打造在地人工智慧裝置解決方案,Google是否也有意推出類似項目?

Mohan Pichika對此表示,目前Google並未有此計畫,原因本身並非晶片設計、生產公司,主要還是聚焦滿足客戶雲端佈署應用需求,因此認為當前提供TPU加速元件,並且與Intel、AMD、NVIDIA等業者合作不同運算元件應用,將是更容易滿足客戶需求的作法。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱