
微軟研究人員在一篇論文中描述名為「VALL-E」的人工智慧語音模型,標榜僅需3秒鐘長度的聲音資料,即可建立模擬聲音本人說話語調,甚至可以加入不同情緒時的說話方式,以及在不同房間等環境下的發聲效果。
依照微軟研究人員說明,此項人工智慧語音模型是以Meta在Libri-light聲音資料庫收錄源自7000多名演講者、長度超過60000小時的英語演講內容進行訓練,藉此讓人工智慧語音模型學習特定聲音念特定文本內容時的音調呈現方式。
在此學習基礎之下,「VALL-E」便可在參考短短3秒長度聲音資料,即可建立以相同聲音說話方式,並且能依照不同情緒進行表達,更可模擬在不同環境下的說話聲音效果。

雖然實際呈現結果中,依然會有部分聲音呈現像是機器發音,但確實有不少聲音呈現結果十分擬真,最主要還是與參考學習樣本是否充足有關,而不同人的習慣發音方式也會有所差異,因此並非所有模擬呈現聲音都相當自然。
為了改善此情況,微軟研究人員表示將持續擴大訓練模型,藉此提高「VALL-E」最終呈現結果更貼近真實。
另外,為了避免「VALL-E」造成不必要影響,微軟並未對外開放「VALL-E」相關編碼內容,同時也強調依循微軟內部人工智慧技術倫理,降低任何潛在風險發生可能性。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 「找車位神器」3秒搜出停車格!5縣市可用 駕駛實測嘆:相見恨晚
📢網紅「小周牙醫」歧視同志言論挨轟!道歉被網抓包IG、YT秒做1事:沒誠意
📢 Switch 2台北體驗會7/5登場!抽選制、超詳細報名規則曝
📢 ASUS VivoWatch 6 AERO智慧手環開箱!指尖量心電圖 睡眠追蹤曝「9成全淺眠」
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 獨/等到iPhone嗶進站!蘋果iOS18.4開放台灣NFC交易 悠遊卡公司回應了