![](https://pgw.udn.com.tw/gw/photo.php?u=https://uc.udn.com.tw/photo/author/photo/966.jpg&x=&y=&sw=&sh=&exp=3600&w=100)
Google DeepMind宣布推出全新針對機器人打造的VLA (Vision-Language-Action)人工智慧模型「RT-2」,藉此讓機器人能更聰明地做出認知反應動作。
「RT-2」與先前在2022年底提出的「RT-1」類似,同樣藉由模型架構讓機器人可快速從經驗中學習,並且與其他機器人分享。在架構上同樣基於以自注意力機制設計的深度學習模型「Transformer」為基礎,可透過網路傳輸的文字、圖像進行訓練,進而讓機器人學習認知做出相應行為動作。
例如,傳統作法如果要讓機器人自動將空可樂罐丟進垃圾桶,過程中必須先讓機器人知道什麼是可樂罐,以及如何判斷可樂罐已經是空的,接著還必須訓練機器人如何夾取空可樂罐,並且將其正確地放到垃圾桶,但機器人在實際運作時仍無法知道為什麼要將空可樂罐丟進垃圾桶。
因此在「RT-2」模型設計中,會透過大量源自網路的數據訓練機器人,並且讓他知道什麼是「垃圾」,進而節省原本需要逐步訓練機器人辨識物體、判斷物體狀況,以及如何夾取、正確放進垃圾桶的繁瑣步驟,直接讓機器人知道物體在什麼狀態下可視為「垃圾」,以及垃圾桶實際用途,即可加快機器人學習將所見「垃圾」丟進垃圾桶的行為。
相比「RT-1」模型下的執行效率為32%,透過「RT-2」的執行效率則提高為62%,幾乎足足增加將近2倍效果,因此預期能接續透過「RT-2」模型訓練機器人理解更多操作行為。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 蘋果iPad mini 7開箱!實測配PS5手把變遊戲主機、寫筆記 8.3吋螢幕超剛好
📢 任天堂Switch 2台灣快開賣?網揪「這處有檔期」時間曝光:我先空出來了
📢 北捷常客優惠縮水!3月1日起7折變85折新規則曝 TPASS 2.0還有額外回饋
📢 2月4G、5G便宜資費懶人包/4G不限速吃到飽免500!5G上網優惠只要399
📢 ChatGPT Search全面開放免費用!搜尋方法教學 3大招做預設搜尋引擎
📢 2025年最新!日本家電折價券最高18%折扣 7家電器店一次收藏