18+

15秒樣本就能複製人類聲音!OpenAI披露語音複製新工具 將嚴格管制

OpenAI。擷取自路透社
OpenAI。擷取自路透社

美國人工智慧 (AI)開發公司OpenAI 今天披露一款語音 複製工具,打算在落實保護措施以防範語音造假詐騙 之前都實施嚴格管制。

法新社報導,根據OpenAI一篇分享小規模測試成果的部落格文章,這款名為Voice Engine的模型主要可根據15秒的聲音 樣本複製一個人的聲音。

總部位於舊金山的OpenAI表示:「我們承認生成類似某人聲音的言論具有重大風險,尤其先考量到選舉年…我們與政府、媒體、娛樂、教育、公民社會等領域的美國和國際夥伴合作,確保我們在打造過程中納入他們的意見。」

造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因為語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。

認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發布採取謹慎態度且隨時掌握狀況。

數月前,美國一名民主黨總統初選候選人的政治顧問承認假冒總統拜登 的聲音撥打AI生成的自動語音電話 ,內容聽起來像是拜登呼籲選民不要在今年1月的新罕布什爾州初選投票。

這起事件令專家警覺,他們擔心在今年11月美國總統大選和全球其他重要選舉之前出現大量AI生成的深偽假資訊。

OpenAI表示,測試Voice Engine的夥伴已同意一些規範,包括要求所有聲音被這項工具複製的人都必須明確知情同意。

OpenAI還說,也必須明確告知受眾,他們聽到的聲音是AI生成。

OpenAI表示:「我們已實施一系列安全措施,包括打上數位浮水印,以追蹤所有Voice Engine所生成音訊的源頭,並主動監控這項工具的使用方式。」

本日熱門 本周最熱 本月最熱