NVIDIA 在SC23超算大會上宣布推出採用H200 Tensor Core GPU的HGX H200運算平台,藉此強化各類雲端執行個體,並且推動人工智慧 執行效能。
相較先前推出的H100,NVIDIA表示H200整合HBM3e記憶體 ,藉此對應更高資料處理吞吐流量,並且能配合GPU加快人工智慧運算與大型自然語言模型執行效率。透過總容量達141GB的HBM3e記憶體,以及每秒傳輸速率可達4.8TB的表現,相比過往推出的A100將能透過翻倍記憶體容量與2.4倍記憶體頻寬加快人工智慧運算效能。
而藉由沿用H100相容軟體更新,NVIDIA強調將使H200執行諸如NVIDIA TensorRT-LLM、Meta Llama 2等大型自然語言模型能有翻倍效率表現。
至於採用H200的HGX H200主機 板,則可對應四路或八路配置,並且相容前一代HGX H100,意味將能直接透過更換進行升級,另外也能搭配Grace Hopper Superchip GH200提高整體算力表現,並且能佈署於雲端、地端、混合雲,或是邊緣環境使用,預計由永擎電子、華碩、Dell、Eviden、技嘉、HPE、鴻佰科技、聯想、雲達、美超微、緯創資通與緯穎科技推出應用設計伺服器產品,預計會在2024年第二季於全球市場提供。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 便宜資費懶人包/5G 399元搶市!不限速吃到飽方案比4G划算
📢 CMF Headphone Pro耳罩式耳機開箱!實測動感滑桿聽見動ㄘ動、驚豔降噪高CP
📢 坐飛機遇行充自燃怎麼辦?專家曝溫度控制就用它:亂用1物會更慘
📢 iPhone鬧鐘「沒響」錯過航班!網紅抱怨引出一票苦主 2招避免中招
📢 HTC VIVE Eagle智慧眼鏡開箱!日本實測AI翻譯菜單 聽音樂驚豔、拍出日系照片
📢 懶人包/台灣吉伊卡哇常設店12月27日開幕!13樣新品、贈品、地點一次看
