接續揭曉跨足實體晶片製造的消息後,Arm雲端AI事業部執行副總裁Mohamed Awad隨後針對此款處理器進一步說明技術解析。這款名為「Arm AGI CPU」的全新處理器,是基於Arm Neoverse平台所打造的量產級產品,主要為了解決「代理式AI」時代下,CPU成為資料中心協調運算過程中的「瓶頸」問題。
為此,Arm徹底重新設計伺服器 的參考架構,透過極致的機架密度與多執行緒效能,標榜能提供x86架構系統兩倍以上的單機架效能,並且宣告AI雲端基礎設施正式進入「Arm原生」的全新發展。
代理式AI的崛起:為何CPU成為算力瓶頸?
Mohamed Awad解釋,過去運算的瓶頸在於「人類」——人類輸入指令的速度,決定系統運作的執行節奏。但在「代理式AI」時代,這個限制消失了,軟體代理會以24小時不間斷地自主協調任務,並且與多個大型語言模型進行互動,接著做出即時決策。
但在這種持續運作且極度複雜的環境中,CPU的角色發生質變,不再只是GPU的配角,而是必須同時管理數以千計的分散式任務、調度加速器、管理記憶體與儲存,甚至處理海量AI代理之間的「扇出」 (fan-out)協調任務。而當負載呈指數級飆升,傳統x86架構CPU在持續高負載下,往往會出現核心爭用與效能衰退等問題,而這正是Arm決定親自下場打造AGI CPU的核心原因。
為「機架級」效率而生:單機架最高容納45000組核心
為了解決這個痛點,Arm AGI CPU從運作時脈、記憶體到I/O架構,全都是為了支援「高密度機架佈署」與「大規模平行運算」而量身訂做。
Arm官方釋出「AGI CPU」的硬體參考配置:
• 1OU雙節點設計:這是Arm提出的標準氣冷伺服器參考架構。每個刀鋒伺服器 (Blade)包含兩個節點,配置兩顆AGI CPU、專屬記憶體與I/O埠,在單一刀鋒伺服器即可提供272組運算核心。
• 氣冷36kW機架:一個標準的36kW氣冷機架系統則可塞滿30個上述刀鋒伺服器,總計提供高達8160個CPU核心。
• 液冷200kW巨獸:Arm更與Supermicro合作,設計支援200kW液冷的極端配置,單一機架可容納336顆Arm AGI CPU,總核心數更能突破驚人的45000個。
Mohamed Awad強調,這套架構能提供超越最新x86架構系統兩倍以上的機架運算效能。其關鍵在於Arm Neoverse V3核心的「單執行緒」 (single-threaded)效能與更高記憶體頻寬表現,確保每一個執行緒都能完成更多工作,並且不會像x86架構設計在滿載時可能發生效能崩潰。
不僅是賣晶片,更要定義硬體標準
值得注意的是,Arm這次不僅僅是推出晶片,更是打算直接定義下一代伺服器的硬體標準。
為了加速生態系採用,Arm宣布推出符合開放運算計畫 (OCP)DC-MHS標準尺寸的「Arm AGI CPU 1OU雙節點參考伺服器」。Arm計畫將這套伺服器設計、支援的韌體、系統架構規格、除錯框架及診斷工具,全數貢獻給OCP開放運算社群。
目前,這款晶片已經獲得包含Meta、OpenAI、Cerebras、Cloudflare等業界巨頭的採用承諾,而合作夥伴華擎、聯想與Supermicro已經開始接受商業系統的訂單。
分析觀點
從技術解析可以看出,Arm AGI CPU是一頭徹頭徹尾的「效能怪物」,而其更直接瞄準傳統x86架構資料中心機架弱項。
Arm並未選擇在單顆CPU的絕對算力上與x86競爭,而是利用Arm架構的「高能效比」與「高核心密度」,直接將戰場拉高到「機架級別」 (Rack-scale)。
當雲端服務商在評估資料中心建置時,他們看重的是「在這個36kW的機櫃限制下,能塞進多少算力?」。在這一點上,單機櫃能提供8000組CPU核心,甚至多達4.5萬個不降頻的的Arm架構CPU核心,對比受限於發熱與功耗的x86架構系統,具備更高優勢。
更深層的意義在於,Arm正在收編那些無力自行開發CPU,卻又急需高效能協調器的AI新創與雲端業者 (如OpenAI、Cerebras)。透過直接提供量產晶片與OCP開放運算硬體設計,Arm等同於為整個AI產業鋪好了一條名為「Neoverse」的高速公路。
這不僅是Arm商業模式的重大轉型,更是x86陣營接下來在AI伺服器市場面臨的最嚴峻挑戰。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

討論區