NVIDIA推出結合「Grace」CPU與「Blackwell」GPU運算叢集 強化雲端AI應用佈署

聯合新聞網 楊又肇

除了公布「Blackwell」顯示架構,NVIDIA也同步宣布結合單一「Grace」CPU與兩組「Blackwell」GPU的GB200 Superchip,並且以此建構的運算叢集設備GB200 NVL72,其中整合36組「Grace」CPU及72組「Blackwell」GPU,彼此則以NVLink連接形成運算叢集。

▲結合單一「Grace」CPU與兩組「Blackwell」GPU的GB200 S...

效能方面,GB200 NVL72可在訓練對應720 PFLOPS算力表現,推論算力則可達1440 PFLOPS,同時可對應27兆組參數規模,多節點傳輸頻寬可達每秒130TB,最高可對應每秒260TB傳輸量。

▲整合36組「Grace」CPU及72組「Blackwell」GPU,彼此則以N...

此外,NVIDIA也強調結合「Grace」CPU與「Blackwell」GPU的GB200 Superchip的佈署應用彈性,例如以單一Superchip,或是以整合兩組Superchip形式的機架形式運算,甚至可以透過NVLink串連多組機架,藉此讓算力能以倍數堆疊。

不過,顯然受限於Arm運算子系統對應資料傳輸頻寬,加上若以人工智慧推論運算效能最大化為目的,在GB200 Superchip的組合主要以單一「Grace」CPU與兩組「Blackwell」GPU為設計,藉此讓算力發揮最大化,並且以此組合進行倍數形式堆疊算力。

▲以人工智慧推論運算效能最大化為目的,在GB200 Superchip的組合主要...

▲GB200 Superchip能以倍數堆疊形式增加GB200 NVL72運算叢...

若以H100 GPU算力為基礎,GB200 Superchip的算力為6倍,約可處理GPT-3 1750億組參數量,而對應處理多模特定領域算力表現則可達30倍,可處理多達1.8兆參數規模。

▲GB200 Superchip能以倍數堆疊形式增加GB200 NVL72運算叢...

▲同樣以90天完成訓練GPT-MoE-1.8T人工智慧模型情況,透過GB200 ...

目前GB200 NVL72將由AWS、Google Cloud、微軟Azure與甲骨文OCI (Oracle Cloud Infrastructure)在內公有雲服務採用,並且能藉由BlueField-3 SuperNIC、Spectrum-X800,或是ConnectX-8 SuperNIC、Quantum-X800的網路傳輸介面組合連接,預計會在今年內加速更多自動生成式人工智慧運算平台與雲端加速運算發展。

▲藉由BlueField-3 SuperNIC、Spectrum-X800,或是...

而NVIDIA也將推出採用GB200 Superchip設計的DGX GB200超級電腦,以及以8組DGX GB200超級電腦構成的DGX SuperPOD運算叢集,其中整合288組「Grace」CPU與576組「Blackwell」GPU構成,並且包含240TB高速記憶體容量,在FP4運算模式可對應11.5 ExaFLOPS算力表現,並且發揮30倍推論效率、4倍訓練效率,同時提升25倍能源使用效率。

▲採用GB200 Superchip設計的DGX超級電腦,以及以8組DGX超級電...

▲同樣透過運算叢集堆疊方式提升DGX SuperPOD算力表現

除了宣布以水冷系統維持運作的DGX超級電腦,NVIDIA也同步推出僅以空冷系統形式運作的HGX B200,其中移除「Grace」CPU設計,全數以「Blackwell」GPU運作,分別對應15倍推論效率、3倍訓練效率,能源使用效率則可提升12倍,同時也能減少水冷系統佔據空間,能以更大彈性佈署使用。

▲同步推出僅以空冷系統形式運作的HGX B200

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

楊又肇

曾任聯合新聞網 (udn.com)數位頻道記者,目前為自由寫手與Mas...

NVIDIA 人工智慧 微軟 Azure AWS 雲端

推薦文章

留言