
在此次GTC 2025期間,NVIDIA 同時也公布諸多Blackwell 顯示架構的人工智慧 應用生態發展,其中包含推出開源推論軟體NVIDIA Dynamo、開放式推理人工智慧模型Llama Nemotron系列,並且推出NVIDIA AI Data Platform客製化參考設計,藉此對應要求嚴苛的人工智慧推理工作負載需求。
以開源推論軟體提供使用的NVIDIA Dynamo
作為NVIDIA Triton Inference Server後繼,並且以開源推論軟體提供使用的NVIDIA Dynamo,標榜能在數千組GPU之間協調、加速運算,並且以最低成本及最高效率形式運作,並且以此加速、擴展人工智慧推理模型發展。



在使用相同數量的GPU情況下,NVIDIA Dynamo讓在Hopper系統運行Llama模型的人工智慧工廠效能與營收提升高達兩倍,而在GB200 NVL72機架的大型叢集上運行DeepSeek-R1模型時,NVIDIA Dynamo的智慧推論最佳化功能更可將每組GPU產生詞元數量提高至30倍以上,藉此大幅推動推論能力。
而NVIDIA Dynamo分別可用於代理型人工智慧服務,或是分散式人工智慧服務,預計透過NVIDIA NIM微服務提供使用,之後也會對應NVIDIA AI Enterprise軟體平台支援,提供生產級的安全性、支援與穩定性。
推出開放架構設計的Llama Nemotron系列模型
NVIDIA也推出開放架構設計的Llama Nemotron系列模型,讓開發者、器也能以就緒基礎快速建立可獨立運作,或是組隊解決複雜工作的人工智慧代理服務,包含埃森哲、Amdocs、Atlassian、Box、Cadence、Crowdstrike、德勤、IQVIA、微軟、SAP及ServiceNow都已經與NVIDIA合作,藉此推出可改變傳統工作模式的推理人工智慧代理服務。
Llama Nemotron系列模型同樣會透過NVIDIA NIM微服務提供使用,區分Nano、Super 和 Ultra三種規格,藉此對應不同部署應用彈性,另外也能透過NVIDIA官網、Hugging Face管道提供下載。

NVIDIA AI Data Platform設計方案
此次宣布推出的NVIDIA AI Data Platform設計方案,則可讓業者透過此可客製化參考設計,針對日趨增加的人工智慧推理工作負載構建全新級別的人工智慧基礎設施。

儲存設備供應商可藉由NVIDIA Blackwell GPU、NVIDIA BlueField DPU、NVIDIA Spectrum-X網路技術,及NVIDIA Dynamo開源推理函式庫,讓人工智慧基礎設施能以最佳化形式運作。
包含DDN、Dell、HPE、日立數據系統 (Hitachi Vantara)、IBM、NetApp、Nutanix、Pure Storage、VAST Data與WEKA等資料平台與儲存設備供應商,都已經與NVIDIA合作建立客製化的人工智慧資料平台,並且透過企業資料來推理和回應複雜的查詢內容。
與Google深入合作
而在此次GTC 2025中,NVIDIA更與Alphabet、Google針對就代理型人工智慧與實體人工智慧未來發展展開合作,其中涵蓋基礎設施與開放模型的最佳化,藉此為機器人、藥物探索等領域帶來重大進展
目前包含Google DeepMind、Isomorphic Labs、Intrinsic,以及X的射月計畫項目Tapestry都運用NVIDIA Omniverse、NVIDIA Cosmos及NVIDIA Isaac平台推動發展。
同時,Google Cloud也將導入NVIDIA GB300 NVL72機架規模解決方案與NVIDIA RTX PRO 6000 Blackwell伺服器版本GPU,藉此加快各項研究與人工智慧 生產工作。至於NVIDIA也將率先採用Google DeepMind提出的人工智慧浮水印技術SynthID,藉此識別人工智慧產生內容,並且以此保護智慧財產權。
Google Cloud近期宣布推出A4及A4X虛擬機器預覽版,成為第一家同時提供NVIDIA B200與GB200架構執行個體的雲端服務供應商。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》