18+

基於Gemini 2.0設計 Google提出可讓機器人執行細膩操作任務的人工智慧模型

除了公布可用於單一GPU或TPU的「Gemma 3」人工智慧 模型,Google DeepMind更以Gemini 2.0模型為基礎,分別推出可用於機器人 運作的「Gemini Robotics」與「Gemini Robotics-ER」兩款人工智慧模型,標榜能使機器人執行諸如摺紙、掐緊夾鏈袋等更細膩操作任務。

此次推出模型,主要採用視覺、語言、動作合一的「VLA」 (vision-language-action)設計,讓機器人透過電腦視覺處理資訊後,在理解語言指令情況下產生細膩執行動作,讓機器人可以更仔細動作完成人類下達指令。

「Gemini Robotics」可直接用於控制機器人行為,讓機器人具備更多執行通用型態任務能力,並且提升互動及靈活度表現。而「Gemini Robotics-ER」則可透過Gemini模型的進階推理能力執行任務來運行自己的程式,例如能讓機器人判斷執行任務時,如何排除途中遇到障礙的情況,並且能處理人類以自然語言下達指令。

目前「Gemini Robotics」模型已經與美國德州人形機器人 公司Apptronik合作,另外也向Boston Dynamics、Agility Robotics等機器人公司提供「Gemini Robotics-ER」模型有限存取權,使其建構更多機器人應用形式。

同時,Google也表示此次提出模型是在以科幻小說家Isaac Asimov於著作中提出機器人三法則:「機器人不得傷害人類,或坐視人類受到傷害」、「機器人必須服從人類命令,除非命令與第一法則發生衝突」,以及「在不違背第一或第二法則之下,機器人可以保護自己」為啟發,進而提出「機器人憲法」 (Robot Constitution)框架,透過「ASIMOV」資料集評估機器人行為安全性,並且用於測試機器人對於指令理解程度。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱