同樣都能深度理解使用者語句 Google提出的「LaMDA」、「MUM」有什麼不同?

聯合新聞網 楊又肇

此次Google I/O 2021中,Google分別宣布兩種語言模型「LaMDA」 ((Language Model for Dialogue Applications)「MUM」 (Multitask Unified Model),兩者均標榜能藉由深度學習方式理解使用者語句含意,進一步做出合適回應,但實際應用還是有明顯差異。

依照Google Research產品管理總經理 hristine Robson說明,「LaMDA」與「MUM」均以深度學習方式建構語言模型,藉此能對應更多層內容關聯分析,強調能比目前用於Google Search的BERT模型能有更高處理能力,同時能對應資料節點數量也更多。

不過,如果以簡單理解方式來看的話,「MUM」可以視為Google準備用來強化BERT模型應用的設計,藉由比BERT模型更高處理能力,可串接更多關聯資訊,進而從中找出有用資訊,並且依照分析使用者語句含意,並且推論更多回應內容。

以稍早Google舉例來看,使用者先說明自己最近到亞當斯山徒步旅行,並且考慮下一次前往富士山,進而詢問系統若是要在今年秋天登山的話,需要作什麼準備,此時系統會基於使用者先前已經提到亞當斯山,並且比對跟富士山高度、坡度等差異,最後得出兩者徒步登山的難度相近,可以順利前往的回覆。但是因為使用者提到會在秋天前往,因此系統會額外參考過往氣候狀態,進而建議使用者多帶件防風保暖衣物。

另外,使用者更透過手機拍攝目前自己使用登山靴,詢問是否適合在富士山徒步旅行時穿著,系統則會透過影像識別方式判斷照片中的登山靴細節,藉此回覆使用者是否合適。

相較傳統Google Search透過關鍵字詞或單句有限內容進行比對,「MUM」語言模型將能對應整字句辨識分析,甚至還能對應前後句關聯進行判斷,或是同時執行多個判斷式來理解使用者實際需求。

目前「MUM」仍處於前期測試,但預期能藉由持續學習對應更多語言認知,並且能理解文字、圖像、聲音與影片內容,同時能以使用者容易接受的語言生成方式達成「溝通」效果。

至於「LaMDA」目前則是處於試驗階段,同時主要是聚焦在如何呈現擬人般的交談互動模式,例如在此次分別以冥王星、紙飛機擬人化詮釋「LaMDA」實際運作,將可讓系統透過使用者提問互動內容舉一反三,並且做出貼近真人般反應,背後同樣也會識別使用者語句內容對應含意,並且透過龐大資料交集分析找出最佳回應內容,藉此讓使用者能感受如同與真人般對話效果。

與「MUM」不同的是,「LaMDA」可讓系統更主動做出互動,不像「MUM」主要是針對使用者提問給予更完整解答,因此更像是先前Google提出的Duplex技術,可依據使用者對話內容做出不同互動回應行為。

但依照目前Google規劃,暫時並未有計畫將「LaMDA」應用在任何服務,現階段僅聚焦在研究如何讓機器與人進行互動。而「MUM」目前雖然是初期測試階段,但預期接下來將會成為Google Search等以搜尋為基礎的服務背後使用模型,讓使用者能更容易透過關鍵字詞、完整語句等方式快速找到解答,或是希望查找內容。

無論是「LaMDA」或「MUM」,預期接下來Google將會讓人機互動模式變得更不一樣。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

Google

推薦文章

留言