
Meta稍早公布可處理長文內容的Llama 2 Long大型自然語言模型,建立在可對應32768組標記 (token)、700億個參數情況下,並且在整體表現優於同樣可處理長文內容的GPT-3.5-Turbo-16K版本。
Llama 2 Long強項在於處理長文內容,並且對應前後文關聯,藉此對應更複雜、多樣性的人工智慧互動處理需求,其中包含聊天機器人自然互動,或是對於內容繁多的文件分析等。
而先前可對應長文內容的大型自然語言模型,幾乎都是以商業應用為主,因此Meta此次提出Llama 2 Long,將建立在Llama 2本身為開源模型的基礎上,同樣以開源形式提供更多研究人員、開發者使用。
而訓練方式,則是以Llama 2為基礎,額外透過4000億個標記進行預先訓練,同時再將這些標記分成更多規模較小序列,例如進行70億組標記與130億組參數模型訓練時,便以32768組標記序列進行訓練,或是在300億、700億組參數模型訓練時,透過16384組標記訓練。
如此一來,則可讓Llama 2 Long在長文內容中的前後文對應有更好表現,甚至在內容長度增加時,可對應前後文的幅度也會跟著增加,如此一來即可對應複雜程式開發、內容分析描述,或是對應更複雜的對話互動,同時也能以相對更低成本訓練大型自然語言模型。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 2月4G、5G便宜資費懶人包/4G不限速吃到飽免500!5G上網優惠只要399
📢 ChatGPT Search全面開放免費用!搜尋方法教學 3大招做預設搜尋引擎
📢 DeepSeek APP真的不安全!「資料傳送到中國」、還關掉蘋果iOS版保護功能
📢 LINE免費貼圖8款!開工送2款「終身免費用」 精品款爽用180天
📢 2025年最新!日本家電折價券最高18%折扣 7家電器店一次收藏
📢 【開箱】Ikarao Break X2行動KTV開箱!8小時K歌不中斷 還能當看片神器