Google DeepMind宣布推出全新針對機器人打造的VLA (Vision-Language-Action)人工智慧模型「RT-2」,藉此讓機器人能更聰明地做出認知反應動作。
「RT-2」與先前在2022年底提出的「RT-1」類似,同樣藉由模型架構讓機器人可快速從經驗中學習,並且與其他機器人分享。在架構上同樣基於以自注意力機制設計的深度學習模型「Transformer」為基礎,可透過網路傳輸的文字、圖像進行訓練,進而讓機器人學習認知做出相應行為動作。
例如,傳統作法如果要讓機器人自動將空可樂罐丟進垃圾桶,過程中必須先讓機器人知道什麼是可樂罐,以及如何判斷可樂罐已經是空的,接著還必須訓練機器人如何夾取空可樂罐,並且將其正確地放到垃圾桶,但機器人在實際運作時仍無法知道為什麼要將空可樂罐丟進垃圾桶。
因此在「RT-2」模型設計中,會透過大量源自網路的數據訓練機器人,並且讓他知道什麼是「垃圾」,進而節省原本需要逐步訓練機器人辨識物體、判斷物體狀況,以及如何夾取、正確放進垃圾桶的繁瑣步驟,直接讓機器人知道物體在什麼狀態下可視為「垃圾」,以及垃圾桶實際用途,即可加快機器人學習將所見「垃圾」丟進垃圾桶的行為。
相比「RT-1」模型下的執行效率為32%,透過「RT-2」的執行效率則提高為62%,幾乎足足增加將近2倍效果,因此預期能接續透過「RT-2」模型訓練機器人理解更多操作行為。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 便宜資費懶人包/5G 399元搶市!不限速吃到飽方案比4G划算
📢 CMF Headphone Pro耳罩式耳機開箱!實測動感滑桿聽見動ㄘ動、驚豔降噪高CP
📢 坐飛機遇行充自燃怎麼辦?專家曝溫度控制就用它:亂用1物會更慘
📢 iPhone鬧鐘「沒響」錯過航班!網紅抱怨引出一票苦主 2招避免中招
📢 HTC VIVE Eagle智慧眼鏡開箱!日本實測AI翻譯菜單 聽音樂驚豔、拍出日系照片
📢 懶人包/台灣吉伊卡哇常設店12月27日開幕!13樣新品、贈品、地點一次看
