今年在5月中旬公布GPT-4o 人工智慧模型時,當時提及能以自然聲音 進行互動的語音 對話模式,目前已經開始向部分ChatGPT Plus付費 用戶提供alpha版本測試,預計會在今年秋季向所有ChatGPT Plus用戶提供使用。
依照OpenAI 說明,此語音對話模式透過超過100個外部紅隊 (Red Team)以45種語言進行測試,確認使用上不會有安全等爭議問題,而目前提供語音選項包含「Cove」、「Juniper」、「Breeze」與「Ember」,不包含先前被質疑與演員史嘉蕾喬韓森 (Scarlett Johansson)聲音相仿的「Sky」。
在進一步解說中,Open AI表示在GPT-4o推出前的語音對話模式平均延遲,在GPT-3.5約為2.8秒,在GPT-4則約為5.4秒,主要是透過三個獨立模型運作構成,其中包含將音訊轉為文字 ,由GPT-3.5或GPT-4分析文字、做出回應,再將回應文字轉為語音念出,而此次推出的GPT-4o則是透過單一模型即可完成音訊轉文字、文字分析與文字轉音訊三個流程,因此能以相比GPT-4 Turbo約2倍快速度完成運作。
由於花費更短時間完成過往需要三個模型才能完成的工作流程,因此代表GPT-4o將能進一步分析使用者所發出語調、表情,進而判斷背後所代表情感,例如判斷使用者當下情緒是否開心,或是悲傷難過等。
We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) July 30, 2024
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》