OpenAI 公司在美國時間 6 月 13 日於官方部落格宣布 6 大更新重點,釋出讓功能更強大的「GPT-4-0613」與「GPT-3.5-Turbo-0613」版本,同步調降部分模型費用,讓開發者的成本降低。有哪些新功能呢?讓我們一起看下去。
OpenAI宣布6大更新重點
OpenAI 在官方部落格表示這次有 6 大更新重點,分別是:
Chat Completions API 新增 Function calling 函數呼叫功能
更新 GPT-4 和 GPT-3.5-Turbo 模型版本
新的 GPT-3.5-Turbo 16k 可提供更多的上下文
嵌入模型的成本降低 75%
輸入 GPT-3.5-Turbo 的 Tokens 成本降低 25%
公布 GPT-3.5-Turbo-0301 和 GPT-4-0314 模型的停用時間
Function calling 函數呼叫功能
最新版本的 GPT-3.5-Turbo-0613 和 GPT-4-0613 模型裡,最大的特色是 Function calling 函數呼叫功能,開發者向這兩個最新模型描述函數後,模型會自動建立程式碼來執行指定的函數。新的模型經過微調,能會依照使用者輸入的要求檢測什麼時候需要執行函數。
舉例來說:當我們在 ChatGPT 詢問「波士頓現在的天氣狀態是什麼情況?」時,OpenAI API 會自動執行呼叫第三方 API ,再將總結答案傳送給 OpenAI API 後,我們就會在螢幕上看到 ChatGPT 的答案。
不過,OpenAI 也提到自從 ChatGPT alpha 外掛釋出以來,雖然有很多工具和語言模型可以協同使用,但仍有給出錯誤答案等等懸而未解的問題,OpenAI 公司還在努力降低這些問題及產生的風險。
新模型釋出與舊模型停用時間
這次 OpenAI 釋出 gpt-4-0613 和 gpt-3.5-turbo-0613 兩個模型。
gpt-4-0613 模型是經過改進和新增 Function calling 函數呼叫功能的模型;gpt-4-32k-0613 與 gpt-4-0613 相同,還新增擴充套件能提供更多的上下文長度,也能理解更多的文字內容。
gpt-3.5-turbo-0613 模型也有與 GPT-4相同的 Function calling 函數呼叫,以及更可靠的操作性,讓許開發人員獲得更有效率的回應。
另外,gpt-3.5-turbo-16k 的上下文長度可以高達 4 倍,也就代表這個模型可於單一請求中支援20頁的文字,但價格僅為標準版的 2 倍。
這次更新釋出之後,OpenAI 表示將於模型系統將於 6 月 27 日自動升級成新版本。而舊版本包括 gpt-3.5-turbo-0301、gpt-4-0314 及 gpt-4-32k-0314 將於 9 月 13 日之後停用。
調降售價
這次更新對開發者來說最重要的是降價。其中,最受歡迎的 text-embedding-ada-002 嵌入模型降幅為 75%,新價格是 1,000 個 tokens 要價 0.0001美元。
最受歡迎的聊天模式 gpt-3.5-turbo 調降 25%, 每 1,000 個輸入 tokens 只需 0.0015 美元,而每 1,000 個輸出 tokens 則是 0.002 美元,相當於每 1 美元大約 700 頁。
另外,gpt-3.5-turbo-16k 定價為每 1,000 個輸入 tokens 要價 0.003美元,每 1,000 個輸出 tokens 的價格則是 0.004美元。
圖片及資料來源:OpenAI
《原文刊登於合作媒體三嘻行動哇,聯合新聞網獲授權轉載。》