OpenAI 宣布將在全球地區招募紅隊演練團隊成員,預計透過外部人才挖掘人工智慧 系統潛在問題與安全風險。另一方面,相關消息更指稱OpenAI計畫推出其多模大型自然語言模型 GPT-Vision,後續更準備推出代號Gobi的更大規模多模大型自然語言模型,藉此與Google等業者計畫推出的多模大型自然語言模型抗衡。
如同許多資安 業者會透過紅隊演練 (Red Teaming)找出系統潛在安全風險與漏洞問題,OpenAI同樣也計畫透過紅隊演練方式找出人工智慧技術運作時的潛在問題,以及可能被用於惡意行為的情況。
由於人工智慧技術存在許多不確定性,因此必須確定人工智慧基礎運作安全,同時也必須確保人工智慧在不同領域是否會有應用問題,其中包含知識認知、政治、人文社會、教育、法律、金融、數據隱私 ,以及道德方面是否有潛在影響。
目前OpenAI已經針對不同領域招募專家,希望能透過更多人才技能與紅隊演練過程確保其人工智慧服務安全無慮,並且降低應用潛在風險問題。
而所有參與紅隊演練的團隊成員均必須簽署保密協議,或是在相關技術對外公布前禁止透露任何細節。
實際上,OpenAI在先前公布的大型自然語言模型正式推出前,其實都曾進行一定程度的紅隊演練,藉此確保模型使用安全。此次擴大在全球地區招募紅隊演練,顯然也是希望能讓其人工智慧技術有更多安全保障。
此外,The Information網站取得消息指稱,OpenAI可能會趕在Google正式推出其多模大型自然語言模型Gemini之前,公布其多模大型自然語言模型GPT-Vision,後續更可能推出規模更大的多模大型自然語言模型,代號為Gobi。
在接下來的人工智慧技術競爭,多模大型自然語言顯然會成為關鍵,讓人工智慧能同時接受多種資訊輸入,並且自動生成不同資訊內容輸出,相較早期人工智慧僅能單次針對單一內容進行回覆,預期未來的人工智慧技術將能同時進行多項內容運算回應。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》