18+

代理式AI重塑CPU關鍵地位:AMD EPYC處理器以卓越效能與效率定義AI資料中心新標竿

隨著人工智慧從單純的問答生成,邁向能夠自主規劃、決策與執行的「代理式AI 」 (Agentic AI)時代,資料中心的運算架構正在經歷一場深刻的典範轉移。在AI加速運算中一直被視為「配角」的CPU ,如今在AI工作負載中重新站上關鍵地位,成為協調高效能 加速器、管理複雜工作流程的核心樞紐。AMD 憑藉其第5代EPYC伺服器 處理器 ,正以卓越的每核心效能與每瓦運算效率,為新一代AI資料中心奠定堅實基礎。

代理式AI崛起:從「運動員」到「總教練」的角色轉變

在去年六月舉行的AMD Advancing AI活動中,AMD執行長蘇姿丰 將代理式AI形容為「全新的使用者類型」。這類系統能夠持續運作,並且不斷存取資料、應用程式與各項服務,以進行決策並完成複雜任務。與傳統AI工作負載不同,代理式AI不再僅止於單一回合的問答,而是涉及多步驟的工作流程,這使得系統對邏輯處理能力與精細資源管理的要求大幅提升。

在這樣的背景下,CPU與GPU之間的關係也產生了微妙的變化。如果說GPU是擅長高吞吐量平行運算的「敏捷運動員」,那麼CPU就是運籌帷幄的「總教練」。CPU負責制定戰術、掌握時機、管理記憶體與I/O,確保所有GPU朝正確的方向推進。在現代AI叢集中,CPU不僅要執行作業系統 、排程任務,更要負責資料準備、工具調用 (tool calls)、API請求與記憶體查詢等複雜作業,而這些工作都必須在不影響GPU運作效率的前提下完成。

CPU效能與效率的全面進化

根據最新數據顯示,搭載第5代EPYC伺服器處理器的系統,與同級NVIDIA Grace Superchip系統相比,每核心效能預計可提升高達2.1倍。而在SPECpower基準測試中,AMD EPYC伺服器處理器系統的每瓦運算效能更預計可提升高達2.26倍。這意味著在相同功耗預算下,AMD平台能夠處理更多AI工作負載,為資料中心營運商帶來更低的總體持有成本 (TCO)。

更重要的是,EPYC伺服器處理器延續x86架構的開放生態系優勢。絕大多數企業工作負載都已能在本地端 (on-prem)和雲端環境中原生運作,無需像導入Arm架構系統時常需進行的程式碼重構、重新編譯或維護多套程式碼庫。這對於追求敏捷部署與快速擴展的AI服務供應商而言,無疑是至關重要的競爭優勢。

從訓練到推論:CPU角色的動態演化

在AI訓練階段,GPU憑藉其數量眾多的精簡核心,以極高速度反覆執行簡單且重複的運算任務,是大規模資料網格運算的絕對主力。此時,CPU的主要職責在於管理並穩定提供資料給GPU,確保其維持最佳運作效率。對CPU而言,這雖是繁重但尚能輕鬆應對的工作。

然而,隨著AI工作的重心轉向推論,CPU的角色也從單純的組織者,轉變為更注重結果的管理者。尤其在代理式AI的場景中,CPU投入更多時間與邏輯運算來評估結果,甚至會將問題再次交回GPU,在調整指令後重新運算,直到最終結果產生。這使得CPU在推論階段承擔更繁重的思考任務,需要同時進行控制、協調和複雜的決策。

AMD小晶片設計:為多元工作負載提供最佳化配置

AMD在小晶片 (chiplet)設計領域的領先地位,賦予了EPYC伺服器處理器獨特的靈活性。這種模組化方法讓AMD能夠靈活調整運算能力、I/O、記憶體頻寬與功耗配置,從核心企業應用程式和虛擬化,到GPU編排與多步驟代理式AI工作流程,都能提供合適規模的運算能力。

在代理式AI的世界中,這種靈活性顯得尤為重要。CPU不僅要管理既有職責,還需應對工具調用、API請求與記憶體查詢等新增負載。在理想情況下,CPU在執行這些任務的同時,仍需保持GPU持續運作。隨著CPU在AI代理、企業應用與資料湖 (data lakes)之間移動資料,代理式AI的興起正顯著提升對CPU運算週期的需求。

AMD全面佈局:從資料中心到邊緣運算

AMD在此基礎上持續向前邁進。代號為「Venice」的下一代AMD EPYC伺服器處理器,將為即將推出的「Helios」機架級AI架構注入動能,預計將進一步擴展AMD在AI與通用運算工作負載上的效能、密度與能源效率領先地位。

與此同時,AMD也將代理式AI的願景延伸至終端裝置。近期提出的「代理電腦」 (Agent Computer)概念,便是專為持續運行AI代理所設計的新型裝置。搭載AMD Ryzen AI Max+處理器的系統,具備強大的運算效能、記憶體頻寬與平行處理能力,可支援多代理工作負載與持續運行的AI環境,標誌著AI運算正從過往以雲端為主的模式,逐步邁向強大且高效能的本地AI系統 (例如對應近期因OpenClaw帶動的養龍蝦熱潮)。

分析觀點

AMD此次強調CPU在代理式AI時代的關鍵角色,背後隱含著深刻的產業趨勢觀察。過去幾年,GPU憑藉其驚人的平行運算能力,幾乎成為AI的代名詞。然而,隨著AI應用場景從模型訓練轉向大規模推論佈署,特別是代理式AI的興起,系統架構師們開始重新審視「平衡」的重要性。

首先,「總教練」的價值被重新定義。在大型語言模型 (LLM)執行多步驟任務時,每一次的工具調用、API請求與結果驗證,都需要CPU的即時介入。若CPU效能不足,即使GPU運算能力再強,整個系統也只能處於等待狀態,造成資源浪費。AMD EPYC伺服器處理器展示的每核心效能與每瓦效能領先數據,正是對這種「等待成本」的直接回應。

其次,x86生態系的護城河效應。儘管Arm架構在功耗上具有一定優勢,但企業在導入新架構時往往忽略了軟體轉移的隱形成本。AMD此次特別強調x86的「無痛遷移」優勢,精準抓住企業在追求AI創新時對營運穩定性的深層焦慮。對於多數已經投資大量x86軟體的企業而言,能在不重構程式碼的前提下升級AI基礎設施,其策略價值遠高於單純的硬體規格比較。

最後,AMD的「系統級」競爭思維。從EPYC CPU、Instinct GPU、Pensando網路技術,到ROCm軟體堆疊,AMD正試圖從單一元件供應商轉型為完整AI基礎設施解決方案提供者。這種「由CPU向外延伸」的策略,與NVIDIA以GPU為核心建構的CUDA生態系形成鮮明對比。在代理式AI的推動下,資料中心需要的不再是單一效能最強的元件,而是能夠協同運作的完整系統。AMD能否藉此波CPU重要性回升的浪潮,在AI資料中心市場中開創新的格局,將是2025年企業IT市場最值得關注的動向之一。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱