在此次SC20超算活動中,NVIDIA 針對大規模運算需求推出A100 80GB,其中搭載容量高達80GB的HBM2e高密度記憶體模組,並且對應每秒2TB記憶體傳輸頻寬,藉此讓人工智慧、巨量數據分析等應用能以更快效率完成。
依照說明,NVIDIA表示A100 80GB在Quantum Espresso模擬運算能提升2倍效率,藉由10TB Retail Benchmark量測約可對應2倍巨量數據分析效率提升,在DLRM Recommender人工智慧訓練也能增加3倍效率,而在RNN-T神經網路下的語句分析更可在多線程推論效率提升1.25倍,甚至也能推動1.25倍的電力使用效率。
另外,藉由本身可堆疊串接特性,NVIDIA也以A100 80GB為基礎,推出串接8組A100 80GB構成的DGX A100 640GB,並且將DGX A100 640GB納入DGX Superpod建置選項,例如目前在英國劍橋建置的Cambridge-1超級電腦 ,目前就導入DGX A100 640GB。
配合DGX Superpod建置需求,NVIDIA也針對採用1500組GPU規模的資料中心打造NDR 400G MellanoxInfiniBand網路卡,讓網路連接成本降低1.2倍,同時也能減少1.2倍電力輸出
針對一般公司、高解析影音內容等創作需求打造DGX Station A100
而針對一般公司運算,或是對應高解析影音內容創作等需求,NVIDIA此次也宣布推出搭載4組A100 80GB的DGX Station A100,標榜能以更彈性方式佈署等同資料中心運算效能,同時也能透過總計達320GB HBM2e記憶體對應大規模運算量。
不過,相較過往採用Intel Xeon系列處理器設計,NVIDIA此次則是在DGX Station A100導入AMD EPYC系列處理器規格,藉由64核心、最高512GB記憶體,搭配PCIe 4.0連接埠更高傳輸頻寬,儲存容量則以1.92TB NVMe M.2 SSD構成,最高可擴充至7.68TB。
藉由第三代NVLink技術,NVIDIA表示將能以每秒200GB傳輸頻寬對應GPU之間資料交換,相比透過PCIe 4.0連接埠可對應3倍以上傳輸效率。同時,NVIDIA也表示在DGX Station A100採用全新無須維護的冷卻系統設計,確保DGX Station A100效能穩定發揮。
至於連接部分,DGX Station A100分別對應2組10GbE (RJ45)網路連接埠與1組支援遠端操作的1GbE網路連接埠,並且支援4組Mini DisplayPort輸出。
未來也可能在DGX Station導入Arm架構,或是更多處理器設計
另外,雖然此次在DGX Station A100導入AMD EPYC系列處理器規格,NVIDIA強調並不會改變原本與Intel合作模式,不過也強調本身GPU能與眾多架構設計的處理器搭配應用,除了x86架構,自然也包含Arm架構設計處理器,甚至也能對應IBM Power系列處理器使用。
未來是否會考慮推出基於Arm架構設計的DGX Station系統,或是更多DGX應用產品,NVIDIA並未有具體回應。而針對此次讓SXM封裝設計的A100搭載HBM2e記憶體容量增加至80GB,是否意味未來推出PCIe連接埠產品也會有相同設計,NVIDIA同樣也未有具體回應。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 CASETiFY三大保護殼開箱!Ultra終極防摔手機殼 保護角進化iPhone 16多角度掛法
📢 Windows 11重大更新刪除「29年超實用軟體」!網嘆「沒它不行」 微軟曝解方
📢 LINE免費貼圖6款來了!餃貓FAMILY畫風超Q 毛孩圖案爽用到明年4月
📢 果粉等等!蘋果10月傳還有新品發表會 5樣產品先別買
📢 【開箱】Pixel 9 Pro Fold超薄大摺疊!雙螢幕即時翻譯 當立架自拍不求人
📢 Google生日慶優惠一次看!Pixel 9 Pro送9800 配手錶折2千又送點數