18+

2022~2026年預期AI伺服器出貨量年複合成長率達10.8%

TrendForce觀察到始自2018年新興應用題材的帶領下,包含自駕車、AIoT與邊緣運算,諸多大型雲端業者開始大量投入AI相關的設備建置,截至2022年為止,預估搭載GPGPU (General Purpose GPU)的AI 伺服器年出貨量占整體伺服器比重近1%,而2023年預估在ChatBot相關應用加持下,可望再度刺激AI相關領域的活絡,預估出貨量年成長可達8%;2022~2026年複合成長率將達10.8%。

據TrendForce統計,2022年AI伺服器採購占比以北美四大雲端業者Google、AWS、Meta、Microsoft合計占66.2%為最,而中國大陸近年來隨著國產化力道加劇下,AI建置浪潮隨之增溫,以ByteDance的採購力道最為顯著,年採購占比達6.2%,其次緊接在後的則是Tencent、Alibaba與Baidu,分別約為2.3%、1.5%與1.5%。

在看好AI發展的前景下,Microsoft更是大舉投資OpenAI,除了於今年2月推出自家搜尋引擎Bing的強化版,其中融合ChatGPT技術以及與OpenAI合作開發大型語言模型「Prometheus」;Baidu亦於2023年2月宣布將推出相關服務「文心一言(ERNIE Bot)」,初期將以獨立軟體呈現,後續也將導入搜尋引擎。

以運算規格來看,ChatGPT主要以NVIDIA A100為主,獨家使用Microsoft Azure雲服務資源。若合併其他Microsoft應用而計,全年Microsoft AI伺服器年需求為25,000台。Baidu文心一言採用NVIDIA A800(繼A100被美國商務部限制後的替代品),合併其他應用,Baidu AI伺服器年需求約為2,000台。TrendForce分析,以AI運算所需要的server GPU而言,其市場以NVIDIA H100、A100、A800(滿足中國大陸需求)以及AMD MI250、MI250X系列為主,而NVIDIA與AMD的Server GPU占比約8:2。

若聚焦於這些GPU規格,其中因應高頻寬運算而使用的HBM(High Bandwidth Memory)更受到市場矚目。 以位元計算,HBM占整個DRAM市場比重約1.5%,供應商以三星、SK海力士與美光為主。但以NVIDIA使用的HBM3,SK海力士是目前唯一量產的廠商,因此在該規格主導市場,由於生產技術門檻高,對原廠而言屬於高毛利產品。

本日熱門 本周最熱 本月最熱