18+

AI算力不能只靠GPU!Intel攜手Google深化合作、Xeon處理器與客製化IPU成次世代資料中心基石

AI重點

文章重點整理:

  • 重點一:Intel與Google深化合作,推進AI與雲端基礎設施發展。
  • 重點二:Xeon處理器在AI系統中扮演核心角色,提升運算效能。
  • 重點三:擴大客製化IPU開發,釋放CPU運算能量以提高效率。

在AI算力需求呈現爆發性成長的當下,外界往往將目光全數聚焦在GPU等運算加速器上。而IntelGoogle 稍早則是共同宣布一項涵蓋多年的深度戰略合作,將推動次世代AI與雲端基礎設施的發展,並且在現代「異質化」 (Heterogeneous)的AI系統架構發展中,強調CPU與IPU (客製化基礎設施處理器)依然扮演著不可或缺的關鍵角色。

當AI模型的訓練與推論架構變得越來越龐大且複雜,基礎設施的建構已經不再只是單一加速晶片的單打獨鬥,而是一場關乎整體系統架構平衡的綜合戰役。

Xeon處理器穩居系統核心:從協調排程到通用運算

「AI不僅僅在加速器上運行,它在系統上運行,而CPU正是這些系統的核心」。這不僅是業界的現狀,也是本次Google與Intel合作的基調。

隨著AI應用的快速普及,雲端基礎設施的複雜度大幅提升,系統對於資料前置處理、運算資源排程 (Orchestration),以及整體系統層級效能的依賴度越來越高。對此,Google Cloud宣布將持續在旗下針對工作負載最佳化的執行個體 (Instances)中,擴大佈署Intel Xeon處理器。

其中,最受矚目的便是採用最新一代Intel第六代Xeon處理器,藉此驅動Google Cloud的C4與N4執行個體。這些運算平台不僅能支援大規模的AI訓練協調,也能同時處理對延遲極度敏感的推論任務以及傳統的通用型運算 (General-purpose computing),展現CPU難以被完全取代的泛用性優勢。

擴大客製化IPU共同開發,釋放核心運算量能

除了傳統的CPU業務,Intel與Google也宣布將擴大在「客製化ASIC IPU」領域的共同開發。

在超大型 (Hyperscale)資料中心與AI環境中,網路封包傳輸、儲存管理與系統安全防護等任務,往往會吃掉CPU龐大的運算資源。而IPU的作用,就是將這些繁雜的基礎設施任務從主機CPU端「卸載」 (Offload)下來。例如NVIDIA提出運算架構,會將部分網路封包分配運算會轉由SmartNIC協助分擔處理,讓CPU能將更多運算效能集中在更重要項目。

透過導入這些可程式化的硬體加速器,不僅能大幅提升伺服器的整體資源利用率與能源效率,還能讓雲端服務供應商在不增加整體系統複雜度的前提下,實現更具可預測性的大規模擴展。Xeon CPU與客製化IPU的緊密整合,形同為AI系統找到了一個「通用算力」與「專用基礎設施加速」的完美平衡點。

雙方高層喊話:平衡的系統架構才是AI的未來

針對此次深化合作,Intel執行長陳立武點出其戰略意義:「AI正在重塑基礎設施的建構與擴展方式。擴展AI需要的不僅僅是加速器,它更需要『平衡的系統』。而CPU與IPU是滿足現代AI工作負載在效能、效率與彈性需求上的核心樞紐」。

Google AI基礎設施資深副總裁暨首席技術長Amin Vahdat也呼應這個觀點:「從訓練協調到推論部署,CPU與基礎設施加速技術依然是AI系統的基石。Intel在過去近二十年來一直是我們值得信賴的合作夥伴,他們未來的Xeon處理器發展藍圖,讓我們有信心能持續滿足日益增長的工作負載需求」。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

精華 FAQ

  • Intel與Google的合作旨在推進次世代AI和雲端基礎設施的發展,強調CPU和客製化IPU在現代AI系統中的重要性,並確保整體系統架構的平衡性。

  • Xeon處理器在AI算力中扮演著核心角色,支持多種運算需求,包括AI訓練與推論,並展現出其在通用運算上的優勢,無法被單一加速器完全取代。

  • 擴大客製化IPU開發能有效釋放CPU的運算資源,減輕主機CPU負擔,提升伺服器的資源利用率,並在不增加系統複雜度的情況下實現大規模擴展。

延伸閱讀

詳解Arm首款自製晶片「AGI CPU」架構 單機架對應4.5萬組核心、暴力解救「代理式AI」算力瓶頸

Arm首度推出自有品牌晶片「Arm AGI CPU」 攜手Meta搶攻代理式AI伺服器商機

Intel Xeon 6進駐NVIDIA DGX Rubin NVL8機架系統!成為AI推論時代的「指揮中樞」

效能翻倍、能耗砍半!NVIDIA推出專為代理式AI設計的Vera CPU

本日熱門 本周最熱 本月最熱