18+

微軟針對Azure雲端服務打造兩款客製化晶片 對應人工智慧與通用運算加速需求

▲左為針對人工智慧工作執行,以及自動生成式人工智慧應用最佳化的Azure Maia AI加速器,右為針對通用雲端運算需求的Azure Cobalt CPU
▲左為針對人工智慧工作執行,以及自動生成式人工智慧應用最佳化的Azure Maia AI加速器,右為針對通用雲端運算需求的Azure Cobalt CPU

微軟 Ignite 2023活動上,微軟宣布於旗下Azure 雲端 服務平台加入兩款客製化設計晶片,分別是針對人工智慧 工作執行,以及自動生成式人工智慧應用最佳化的Azure Maia AI加速器,以及透過Arm架構設計、針對通用雲端運算需求的Azure Cobalt CPU。

至於在與OpenAI合作部分,則將針對Azure Maia AI加速器運作模式提供最佳化調整反饋,藉此讓此款加速器能縮短人工智慧模型訓練時間,並且加快人工智慧應用佈署腳步。同時,藉由Arm架構打造Azure Cobalt CPU,更可進一步降低電力損耗,並且讓伺服器運作效能大幅提升。

隨著微軟在Azure雲端服務導入客製化設計晶片,預期將使其雲端服務能以更高效率運作,並且讓整體電力損耗明顯降低。同時,微軟也強調針對Azure Maia AI加速器打造專屬機架設計,並且搭配專屬水冷系統設計,藉此更有效率地帶走運作時所產生熱能。

▲微軟針對Azure Maia AI加速器打造專屬機架與水冷散熱結構設計
▲微軟針對Azure Maia AI加速器打造專屬機架與水冷散熱結構設計

而為了進一步推動其雲端服務執行效能,微軟也宣布推出以NVIDIA H100 Tensor Core GPU為設計,並且先以預覽形式提供使用的NC H100 v5虛擬機器系列服務,讓使用者能藉由Azure雲端服務平台更容易取得運算效能、應用彈性。

此外,微軟也說明接下來將在明年增加NVIDIA H200 Tensor Core GPU規格選項,藉此提供更高運算效能與更短執行反應時間,同時也能支撐大型自然語言模型運算需求,讓更多業者能透過Azure服務平台取得更高運算資源。

微軟同時也宣布與AMD合作,預計將以CDNA 3加速架構打造、配置高達192GB HBM3記憶體設計的Instinct MI300X GPU加入Azure雲端服務平台,並且透過虛擬機器形式對應更高人工智慧運算執行速度,以及更大人工智慧運算模型訓練與推論需求,更可讓使用者以實惠價格透過雲端取得更高算力。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱