The Information網站引述消息指稱,Meta 計畫在今年7月推出新版 Llama 3大型自然語言模型 ,預計與OpenAI 提出的GPT-4 競爭。
不過,目前Meta尚未對此語言模型進行微調 (fine tune),因此尚未確認Llama 3是否對應多模型態運作,但預期可對應超過1400億組參數,相較Llama 2對應700億組參數有更大規模表現。
由於先前Llama 2加入安全護欄設計,因此無法回覆被認定具有爭議的提問,而Meta顯然計畫將此限制放寬,讓Llama 3能與使用者更進一步互動,在取得更多互動資訊之後做出合適回答,不會一昧地拒絕回答有爭議問題。
另一方面,Meta也可能透過內部人員監督Llama 3互動時的語氣表現,並且確認互動時的安全性。而從原本負責Llama 2、Llama 3的安全研究人員Louis Martin在二月初時離開,原本負責強化學習的主管Kevin Stone也已經離開Meta,因此暫時還無法確認Meta將如何確保Llama 3使用時的安全性。
先前有不少看法認為人工智慧 模型必須加上足夠安全性,但在近期發展則認為過度的安全防護反而出現不好情況,例如Google的Gemini 因為過度「政治正確」,導致在自動生成內容過程反而出現避開出現白人的運算結果,甚至出現不符合史實的人物膚色或性別,可能造成錯誤資訊傳播問題。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》