Meta 近期說明以開放、平等精神投入人工智慧 發展超過10年,並且在基礎人工智慧研究團隊FAI R(Fundamental AI Research)成立10週年之際,宣布推出新一代人工智慧模型與資料集,分別推出結合第一人稱及外部視角,讓人工智慧具備影像理解能力的Ego-Exo4D技術,以及可自動生成語音、音效內容的Voicebox,另外也推出翻譯模型Seamless Communication。
在過去10年發展中,Meta表示推出可辨識圖像中個別單一物體的Segment Anything技術,以及可在不仰賴英文基礎資料的前提下,能翻譯100種語言的NLLB (No Language Left Behind)模型,近期更將「文字轉語音」及「語音轉文字」技術擴展至近1000種語言,並且以開源形式提供使用的可預先訓練大型語言模型Llama,更在後續推出可免費用於研究及商用的Llama 2之後,Meta強調將持續以開放、平等精神投入人工智慧發展。
而在結合第一人稱及外部視角,讓人工智慧具備影像理解能力的Ego-Exo4D技術裡,Meta透過結合兩種視角方式,讓人工智慧能蒐集更完整環境資訊,並且能結合智慧眼鏡裝置,讓虛擬助理引導使用者完成學習新技能、導航等任務。
今年6月宣布推出的人工智慧模型Voicebox,則可透過學習樣本、語音風格,藉由自動生成方式產生語音服務使用聲音,讓使用者能更直覺、簡單打造客製化音訊資料。
至於以SeamlessM4T技術為基礎,新推出的翻譯模型Seamless Communication,則在跨語言表現上更忠實呈現原意,並且能達到同步翻譯的效果,更支援以聲音語調、抑揚頓挫或停頓點詮釋語意情緒,目前支援英文、西班牙文、德文、法文、義大利文及中文,並且支援更即時、高效率即時翻譯效果。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》