NVIDIA 稍早於加州聖地牙哥舉辦的NeurIPS AI 會議上,正式推出名為「Alpamayo-R1」的全新開源AI模型。這是一款專為自動駕駛研究設計的「推理視覺語言 模型 」 (Reasoning Vision Language Model),將成為實體AI (Physical AI) 的骨幹技術,讓車輛能像人類一樣具備「駕駛常識」,並且處理細微的駕駛決策。
首款專注自駕的視覺語言動作模型,具備「思考」能力
NVIDIA宣稱,Alpamayo-R1是業界首款專注於自動駕駛領域的視覺語言動作模型 (Vision Language Action Model),而此模型基於NVIDIA旗下Cosmos -Reason模型所打造。
不同於傳統模型直接反應,Cosmos-Reason具備「推理」 (Reasoning)能力,能在做出回應前先進行思考與決策分析。這意味Alpamayo-R1能同時處理文本與圖像資訊,讓車輛不僅能「看見」周遭環境,更能進一步理解情境,並且做出更像人類的判斷邏輯。
NVIDIA在部落格文章中指出,這類具備推理能力的技術,對於企業邁向Level 4自動駕駛 (即在限定區域與特定條件下的完全自動駕駛 ) 相當重要。NVIDIA希望藉此賦予自駕車輛更多「常識」 (common sense),藉此應對複雜的道路狀況。
目前Alpamayo-R1已經在GitHub與Hugging Face平台上以開源形式提供使用。
推出「Cosmos Cookbook」開發指南
除了模型本身,NVIDIA也同步在GitHub釋出「Cosmos Cookbook」開發指南。這是一套包含逐步指南、推論資源,以及後期訓練 (post-training) 工作流程的完整工具包。
Cosmos Cookbook可協助開發者更有效地針對特定使用案例,訓練與佈署Cosmos模型,內容涵蓋數據策展 (data curation)、合成數據生成 (synthetic data generation),以及模型評估等關鍵環節。
鎖定實體AI下一波浪潮
此次新公布內容也呼應NVIDIA執行長黃仁勳 (Jensen Huang) 近期不斷強調的觀點:AI的下一波浪潮將是「實體AI」。
NVIDIA首席科學家Bill Dally先前也曾表示,機器人 最終將在世界扮演巨大角色,而NVIDIA的目標是「為所有機器人製造大腦」。透過Alpamayo-R1與Cosmos生態系統佈局,NVIDIA目前正積極將其先進GPU算力延伸至機器人與自駕車等實體應用領域。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 POCO F8 Ultra開箱!驚豔Bose低音砲 實測鏡頭拍峇里島日出、捕捉厭世猴群
📢 LINE吃200GB空間!刪1群組「全當機」靠它救回 他曝安心刪除方法
📢 iPhone用戶小心!他「打FaceTime」慘交5700元電話費 改1設定防中招
📢 iPhone 18系列「史上最難選」!打破賈伯斯策略 選機方式大變動
📢 DJI Neo 2開箱!實測新手操作 空拍日出、環繞、跟拍1秒上手
📢 懶人包/LINE帳號換機方法一文看懂!開始前檢查3件事、1錯誤害資料救不回
