NEC在CEATEC 2023期間展示其內部使用的大型自然語言模型「NEC Generative AI Framework」,主要透過928組GPU、580 PFLOPS算力表現的超級電腦支撐運作,並且標榜能有充足的日語理解應對能力,總參數量則約在130億組規模。
相比OpenAI 的GPT-3約為1750億組參數規模,以及Meta的Llama2約為700億組參數規模,NEC的大型自然語言模型 規模小了一些,同時整體執行反應速度約在10秒左右才會給出解答,但NEC認為此規模的大型自然語言模型相對容易操作、微調,同時在運作上也能在精度與成本效益取得平衡。
而跟其他大型自然語言模型一樣,NEC強調「NEC Generative AI Framework」同樣能佈署於裝置端、NEC資料中心,或是微軟Azure公有雲環境運作。
至於跟目前已經可以使用GPT-4 大型自然語言模型的Azure OpenAI服務比較,NEC則說明「NEC Generative AI Framework」有更大佈署彈性,同時對日語內容有更高理解能力,並且能讓用戶依照需求配合公有雲人工智慧 應用服務,藉此對應不同資料處理方式。
目前NEC已經先向10家左右公司提供其大型自然語言模型,並且計畫與更多製造、金融業者合作,接下來也準備擴展到更多日本境內市場,但未說明具體發展目標。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》