AI重點
文章重點整理:
- 重點一:Intel與Google深化合作,推進AI與雲端基礎設施發展。
- 重點二:Xeon處理器在AI系統中扮演核心角色,提升運算效能。
- 重點三:擴大客製化IPU開發,釋放CPU運算能量以提高效率。
在AI算力需求呈現爆發性成長的當下,外界往往將目光全數聚焦在GPU等運算加速器上。而Intel 與Google 稍早則是共同宣布一項涵蓋多年的深度戰略合作,將推動次世代AI與雲端基礎設施的發展,並且在現代「異質化」 (Heterogeneous)的AI系統架構發展中,強調CPU與IPU (客製化基礎設施處理器)依然扮演著不可或缺的關鍵角色。
當AI模型的訓練與推論架構變得越來越龐大且複雜,基礎設施的建構已經不再只是單一加速晶片的單打獨鬥,而是一場關乎整體系統架構平衡的綜合戰役。
Xeon處理器穩居系統核心:從協調排程到通用運算
「AI不僅僅在加速器上運行,它在系統上運行,而CPU正是這些系統的核心」。這不僅是業界的現狀,也是本次Google與Intel合作的基調。
隨著AI應用的快速普及,雲端基礎設施的複雜度大幅提升,系統對於資料前置處理、運算資源排程 (Orchestration),以及整體系統層級效能的依賴度越來越高。對此,Google Cloud宣布將持續在旗下針對工作負載最佳化的執行個體 (Instances)中,擴大佈署Intel Xeon處理器。
其中,最受矚目的便是採用最新一代Intel第六代Xeon處理器,藉此驅動Google Cloud的C4與N4執行個體。這些運算平台不僅能支援大規模的AI訓練協調,也能同時處理對延遲極度敏感的推論任務以及傳統的通用型運算 (General-purpose computing),展現CPU難以被完全取代的泛用性優勢。
擴大客製化IPU共同開發,釋放核心運算量能
除了傳統的CPU業務,Intel與Google也宣布將擴大在「客製化ASIC IPU」領域的共同開發。
在超大型 (Hyperscale)資料中心與AI環境中,網路封包傳輸、儲存管理與系統安全防護等任務,往往會吃掉CPU龐大的運算資源。而IPU的作用,就是將這些繁雜的基礎設施任務從主機CPU端「卸載」 (Offload)下來。例如NVIDIA提出運算架構,會將部分網路封包分配運算會轉由SmartNIC協助分擔處理,讓CPU能將更多運算效能集中在更重要項目。
透過導入這些可程式化的硬體加速器,不僅能大幅提升伺服器的整體資源利用率與能源效率,還能讓雲端服務供應商在不增加整體系統複雜度的前提下,實現更具可預測性的大規模擴展。Xeon CPU與客製化IPU的緊密整合,形同為AI系統找到了一個「通用算力」與「專用基礎設施加速」的完美平衡點。
雙方高層喊話:平衡的系統架構才是AI的未來
針對此次深化合作,Intel執行長陳立武點出其戰略意義:「AI正在重塑基礎設施的建構與擴展方式。擴展AI需要的不僅僅是加速器,它更需要『平衡的系統』。而CPU與IPU是滿足現代AI工作負載在效能、效率與彈性需求上的核心樞紐」。
Google AI基礎設施資深副總裁暨首席技術長Amin Vahdat也呼應這個觀點:「從訓練協調到推論部署,CPU與基礎設施加速技術依然是AI系統的基石。Intel在過去近二十年來一直是我們值得信賴的合作夥伴,他們未來的Xeon處理器發展藍圖,讓我們有信心能持續滿足日益增長的工作負載需求」。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
精華 FAQ
-
Intel與Google的合作旨在推進次世代AI和雲端基礎設施的發展,強調CPU和客製化IPU在現代AI系統中的重要性,並確保整體系統架構的平衡性。
-
Xeon處理器在AI算力中扮演著核心角色,支持多種運算需求,包括AI訓練與推論,並展現出其在通用運算上的優勢,無法被單一加速器完全取代。
-
擴大客製化IPU開發能有效釋放CPU的運算資源,減輕主機CPU負擔,提升伺服器的資源利用率,並在不增加系統複雜度的情況下實現大規模擴展。

討論區