OpenAI 安全系統團隊負責人翁荔 (Lilian Weng)稍早在其個人「X」平台宣布將於11月15日離職,結束其在OpenAI長達7年的職涯,而OpenAI方面則說明感謝其過去以來在任內投入安全研究,並且建立嚴謹的技術應用安全保障所作貢獻。
翁荔最早於2012年加入當時的Facebook擔任軟體工程與資料科學實習人員,2014年加入Dropbox擔任資料科學研究人員及軟體工程師,隨後則在2016年加入提供先買後付服務的金融科技公司Affrim,並且在2018年加入OpenAI擔任研究人員,更2023年開始帶領OpenAI安全系統團隊,2024年則擔任安全研究部門副總裁。
而在OpenAI任職期間,翁荔也曾參與GPT-4 人工智慧模型預先訓練、強化學習,以及讓模型運作結果符合設計預期目標的人工智慧對齊 (AI alignment)事宜,同時也在OpenAI人工智慧應用服務背後安全機制扮演重要角色。
今年9月中旬時,OpenAI宣布成立全新獨立董事會,藉此監督日前成立的安全委員會,同時也宣布執行長Sam Altman不再是安全委員會成員之一,意味將確保OpenAI提出的人工智慧技術解決方案將能更加安全。
After working at OpenAI for almost 7 years, I decide to leave. I learned so much and now I'm ready for a reset and something new.
— Lilian Weng (@lilianweng) November 8, 2024
Here is the note I just shared with the team. 🩵 pic.twitter.com/2j9K3oBhPC
在近期消息中,指出OpenAI下一版人工智慧模型將以「Orion」為稱,但整體上的改進幅度較小,甚至在特定領域如編碼生成應用表現僅與先前版本持平,不會像先前版本會有全面提升感受。
目前OpenAI團隊似乎更傾向讓人工智慧模型可在新進訓練資料供應量減少情況下持續獲得改進,其中包含採用以人工智慧生成全新合成資料訓練新版模型,並且針對訓練後的模型運作方式進行改善。
而OpenAI方面並未對此作任何回應,先前也透露今年並未計畫更新新版人工智慧模型。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》