今年在5月中旬公布GPT-4o 人工智慧模型時,當時提及能以自然聲音 進行互動的語音 對話模式,目前已經開始向部分ChatGPT Plus付費 用戶提供alpha版本測試,預計會在今年秋季向所有ChatGPT Plus用戶提供使用。
依照OpenAI 說明,此語音對話模式透過超過100個外部紅隊 (Red Team)以45種語言進行測試,確認使用上不會有安全等爭議問題,而目前提供語音選項包含「Cove」、「Juniper」、「Breeze」與「Ember」,不包含先前被質疑與演員史嘉蕾喬韓森 (Scarlett Johansson)聲音相仿的「Sky」。
在進一步解說中,Open AI表示在GPT-4o推出前的語音對話模式平均延遲,在GPT-3.5約為2.8秒,在GPT-4則約為5.4秒,主要是透過三個獨立模型運作構成,其中包含將音訊轉為文字 ,由GPT-3.5或GPT-4分析文字、做出回應,再將回應文字轉為語音念出,而此次推出的GPT-4o則是透過單一模型即可完成音訊轉文字、文字分析與文字轉音訊三個流程,因此能以相比GPT-4 Turbo約2倍快速度完成運作。
由於花費更短時間完成過往需要三個模型才能完成的工作流程,因此代表GPT-4o將能進一步分析使用者所發出語調、表情,進而判斷背後所代表情感,例如判斷使用者當下情緒是否開心,或是悲傷難過等。
We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) July 30, 2024
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 他讚悠遊卡「Super i貼卡」很好用!意外曝2致命傷「會失效」 官方回應了
📢 【開箱】ROG Phone 9 Pro Edition!LED炫砲又低調「I人不害羞」
📢 出門玩不怕迷路!教你用Google Maps看「實景」找路 每次用每次成功
📢 日本旅遊提行李免鐵腿!教你Google Maps開啟神功能導航「電梯路線」
📢 高CP值娃包瘋搶推薦!郵局收納包僅150元 主管現場開痛包團購「變最帥男人」
📢 便宜資費在這!4G吃到飽488!5G搶市4百有找、再送千元小禮