在近日舉行的CERAWeek 2026能源高峰會上,NVIDIA 宣布與Emerald AI 及六大能源業者合作,推出全新的「彈性AI工廠」 (Flexible AI Factory)架構,號稱能釋出高達100GW的電網彈性容量。與此同時,Google 也宣布其資料中心與電力 公司的「需量反應」 (Demand Response)合約規模正式突破1GW規模,象徵著資料中心正從單純的「電力消耗者」,轉身成為能夠穩定電網、甚至回饋電力的「智慧資產」。
NVIDIA Vera Rubin DSX:讓算力具備「電網感知」能力
NVIDIA這次推出的核心技術是名為Vera Rubin DSX的AI工廠參考設計。這套架構內建DSX Flex軟體函式庫,其最大的功能在於讓AI運算系統具備「電網感知」能力。
簡單來說,透過Emerald AI的Conductor平台調度,AI工廠可以根據電網負載動態調整算力:
• 電網壓力尖峰:自動調降非緊急的AI訓練任務 (如長期模型優化),將節省下的電力回饋給社區電網。
• 電力供應充沛:提高算力利用率,加速AI Token的產出。
這次與NVIDIA結盟的陣容,包含AES、Constellation、NextEra Energy等六家美國主流能源供應商。這項計畫預計今年將在維吉尼亞州的AI研究中心進行首波商業規模驗證,目標是解決目前AI建設最頭痛的「併網等待期過長」問題,讓資料中心能更快取得電力許可。
Google實戰成績單:1GW需量反應合約正式入袋
在NVIDIAe規劃出未來藍圖的同時,Google則是交出紮實的實戰成績單。Google進階能源負責人Michael Terrell指出,Google已經與包含TVA、DTE Energy在內多家電力公司簽署合約,將總計1GW的資料中心負載納入需量反應系統。
Google的做法是利用機器學習技術,精準預測哪些時段可以調度掉非即時性的運算工作。這種「需求端彈性」不僅能幫助電力公司穩定尖峰負載,更能縮短新資料中心上線所需的基礎設施擴建時間。
Google強調,這種彈性能有效降低電力公司的基建壓力,最終反映在所有用戶的電費減免上。
從「共址發電」到「回饋電網」的戰略轉向
過去一年,由於美國部分地區電網老舊,許多大型AI園區被迫採取「共址」 (Co-location)策略,直接把資料中心蓋在核電廠或大型太陽能場旁以獲取電力。
不過,NVIDIA與能源業者一致認為,將這些發電設施與主電網「孤立」並非長久之計。Constellation執行長Joe Dominguez指出,目前的電力困境本質上是「尖峰問題」 (Peak Problem)。
透過彈性架構,AI工廠可以利用現場發電設備在初期維持營運 (過渡電力),待電網併網完成後,再轉為可隨時調度的電網資產。Nscale在西維吉尼亞州的Monarch園區,甚至計畫將電力規模從2GW擴展至8GW,目標就是成為電網的「超級供電者」。
分析觀點
這次NVIDIA在CERAWeek的高調動作,本質上是在定義 AI 時代的「基礎設施規格權」。
過去我們討論AI筆電或手機時,在意的是NPU的TOPS算力;但在巨型資料中心層次,電力效率 (PUE)與電網互動能力才是決定營運成本的關鍵。NVIDIA試圖透過Vera Rubin DSX架構告訴能源公司:與其把AI資料中心視為電網的威脅,不如將其視為一個超大型的「虛擬電池」或「可控負載」。
對Google而言,達成1GW的里程碑證明大型語言模型的訓練任務確實具備高度的可調度性。這種「算力與電力的邊界模糊化」,預示了未來科技巨頭的競爭戰場將從軟體代碼延伸至高壓電塔。當AI工廠能透過調節算力來降低每度電的邊際成本,甚至在電價高峰時靠「省電」或「放電」獲利時,AI的競爭力將不再只是演算法的優劣,更是能源調度能力的展現。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

討論區