大陸人工智慧公司深度求索(DeepSeek )近年爆紅,如今在傳出可能於二月發布新一代旗艦AI模型DeepSeek V4之際,DeepSeek在前日深夜發表新論文,聚焦大模型的條件記憶模塊,即透過分工優化算力,來提升新模型效率,讓它又快又聰明,被業內認為是對V4模型技術架構的預告。
DeepSeek這次發表新論文是與北京大學合作完成,作者列有DeepSeek創始人梁文鋒的署名,名稱為「基於條件查找的條件記憶:大型語言模型稀疏性的新維度」。
綜合第一財經、科創板日報等報導,論文出發點來自大模型通常包含兩種性質不同的任務,一種是需要深度動態計算的組合推理,另一種則是檢索靜態知識,而現有架構處理推理和固定知識的方法,效率較低且浪費算力。
DeepSeek團隊提出條件記憶(conditional memory),並透過Engram這一條件記憶模塊實現「記憶分離」的分工優化,例如有記憶模塊專門管固定知識,推理模塊負責思考,再按照最佳比例分配資源,提升算力和效率,讓模型能夠又快又聰明。論文最後稱,條件記憶將成為下一代稀疏模型不可或缺的建模原語。
近期有科技媒體透露,DeepSeek V4旗艦模型有望於今年二月推出。業內人士認為,前述論文提出的內容或許就是V4的技術架構。
