
去年在GTC 2024正式揭曉Blackwell 顯示架構的加速器,後續更在Computex 2024期間預告將推出名為Blackwell Ultra的加速器產品,NVIDIA 在此次GTC 2025具體說明Blackwell Ultra的具體細節。
Blackwell Ultra用於GB300 NVL72與NVIDIA DGX B300系統
Blackwell Ultra以Blackwell顯示架構為建置基礎,搭載高達288GB容量的HBM3e高頻寬記憶體,並且針對FP4人工智慧 運算性能強化,可實現1.5倍的FP4推論能力表現,更可用於NVIDIA GB300 NVL72機架規模解決方案與NVIDIA DGX B300系統。
其中,GB300 NVL72本身採用機架規模設計,連接72組Blackwell Ultra GPU與36組Arm Neoverse架構設計的NVIDIA Grace CPU,並且採專用設計的機架級液冷式架構,藉此實現先進推理模型的更即時的回應,在人工智慧運算效能比GB200 NVL72提升1.5倍,更比Hopper系統建構人工智慧工廠高出70倍人工智慧浮點運算能力,主要針對測試階段擴展打造的「單一大型GPU」,並且能以更高運算能力將複雜的問題請求拆解成多個步驟,進而產生更高品質的回應內容。
NVIDIA同時也計畫在其NVIDIA DGX Cloud雲端託管服務增加GB300 NVL72選項,而以多組DGX GB300構成的新版NVIDIA DGX SuperPOD,則是以GB300 NVL72機架設計形式組成,藉此創造運算性能更高的一站式人工智慧工廠。

而氣冷式的NVIDIA DGX B300系統則採用NVIDIA HGX B300 NVL16架構,同樣採用Blackwell Ultra系統打造,人工智慧推論效能比Hopper系統高出11倍,訓練效率則提升4倍,每個系統軍配置2.3TB容量的HBM3e高頻寬記憶體,以及8組NVIDIA ConnectX-8 SuperNIC與2組BlueField-3 DPU,可協助在地資料中心提供生成式與代理型人工智慧應用的運算需求。
另外,NVIDIA更宣布推出NVIDIA Instant AI Factory (快速人工智慧工廠)建置方案,藉由NVIDIA DGX SuperPOD的託管服務構成,而美國電信公司Equinix將率先在全球45個市場、預先配置液冷式或氣冷式人工智慧就緒資料中心,藉由DGX GB300與DGX B300系統推動更高人工智慧執行效能。

透過全新網路平台確保橫向擴充能力
配合Blackwell Ultra系統設計,NVIDIA也推出新版Spectrum-X Ethernet與Quantum-X800 InfiniBand網路平台確保橫向擴充能力,並且以NVIDIA ConnectX-8 SuperNIC智慧網路卡,為系統的每組GPU提供高達800 Gb/s資料傳輸量,同時透過遠端直接記憶體存取加快人工智慧推理模型運作效率,讓人工智慧處理速度反應加快。
而Blackwell Ultra系統也搭載NVIDIA BlueField-3 DPU設計,藉此對應同時多用戶透過網路存取與GPU運算執行彈性,並且加快資料運算吞吐,同時也能有效即時偵測網路安全威脅。

Blackwell Ultra系統最快在今年下半年由合作夥伴推出應用產品
NVIDIA表示,相比原先採用Hopper架構加速器人工智慧工廠,換成Blackwell顯示架構加速之後的營收有機會提升高達50倍。此外,Blackwell Ultra系統也能廣泛用於自主解決複雜問題的代理型人工智慧服務,或適用於大規模訓練機器人、自駕車系統,或是即時生成逼真動態影片等的人工智慧應用技術。
目前包含Aivres、華擎、華碩、鴻海、技嘉、英業達、和碩、雲達、緯創與緯穎在內業者都將導入Blackwell Ultra系統,而Cisco、Dell、HPE、聯想與Super Micro也計畫推出多款搭載Blackwell Ultra加速器的伺服器產品,更多合作夥伴也計畫從今年下半年起推出搭載Blackwell Ultra的應用產品。

雲端服務業者如AWS、Google Cloud、微軟Azure、甲骨文的OCI (Oracle Cloud Infrastructure),以及GPU雲端託管業者如CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta與YTL,也將率先提供應用Blackwell Ultra的網路執行個體。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》