隨著Google表示在Workspace導入生成式人工智慧技術之後,OpenAI趕在微軟即將展開發表活動前,正式宣布推出全新GPT-4大型語言模型。
相較先前推出的GPT-3.5主要針對文本內容進行理解與快速反應,OpenAI表示GPT-4將能針對圖像內容進行識別理解,並且進一步生成互動文本內容。同時,雖然在整體表現仍不比人類大腦,但在特定專業與學術理解已經能趕上人類理解能力。
除了先前的文本內容理解與此次增加圖像內容識別理解功能,新版GPT-4模型更強化多模輸入設計,將能進一步識別使用者輸入的混合內容,例如自然語言陳述內容、編碼內容,或是輸入文件內所包含圖像、截圖內容,都能藉由新版GPT-4模型分析,並且做出相關反應結果。
此外,新版GPT-4模型將能透過調整自訂回應風格,藉此讓自動生成內容更具獨特性,或是符合使用需求。
OpenAI更強調,新版GPT-4模型將更為真實、可靠,同時也能維持完整可控制性,避免造成嚴重影響。相比先前推出的大型語言模型,新版GPT-4模型在「一本正經」描述錯誤事實的情況將減少40%,而對比GPT-3.5更在「不應該回覆內容」 (例如詳細講解犯罪手法)比例大幅降低82%,避免產生更大危害影響。
雖然OpenAI表示已經藉由50名網路安全等專業領域專家,針對新版GPT-4模型進行對抗性測試,藉此協助降低新版模型給出錯誤解答情形,但強調整體來看仍有可能出錯,因此OpenAI強調使用新版GPT-4模型仍需格外小心,尤其透過此模型自動生成涉及敏感、需要高度正確內容時,仍應仔細透過人為審核、比對前後陳述內容是否有誤等情況。
如果沒意外的話,微軟接下來預計發表新形態工作模式,其背後就會導入新版GPT-4大型語言模型技術。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》