針對Meta稍早公布可對應4050億組參數規模的大型自然語言模型Llama 3 .1,NVIDIA在稍早對外說明Llama 3.1以超過16000組NVIDIA H100加速器、超過15兆個詞元 (token)資料集訓練而成,並且透過NVIDIA AI Foundry服務與NVIDIA NIM微服務讓企業打造各類客製化人工智慧 應用功能。
NVIDIA表示,其NVIDIA AI Foundry服務是以NVIDIA DGX Cloud AI平台建構而成,並且能依照人工智慧運作規模等需求擴展。另一方面,則是藉由NVIDIA NIM微服務快速佈署人工智慧模型應用,藉此快速建構各類以人工智慧驅動的網路服務。
而透過此次Meta推出的大型自然語言模型Llama 3.1,結合NVIDIA旗下軟體、運算技術,即可針對特定應用需求建構客製化的「超級模型」,例如藉由NVIDIA Nemotron Reward模型所產生合成資料,用於訓練不同客製化的「超級模型」。
企業目前可透過NVIDIA官網下載適用於Llama 3.1的NVIDIA NIM微服務,藉此建構包含人工智慧數位助理、數位分身等應用功能,而全球專業服務公司Accenture目前已經率先採用NVIDIA AI Foundry服務,透過其Accenture AI Refinery框架建立客製化的Llama 3.1應用模型,藉此加快人工智慧技術應用發展。
至於需要額外訓練資料,藉此創建特定領域模型應用的企業,則可同時使用Llama 3.1 4050億組參數版本,搭配NVIDIA Nemotron-4 3400億組參數版本所生成合成資料,進而在建立客製化「超級模型」時提高其運作精準度,而擁有自身訓練資料的企業,則可透過NVIDIA NeMo服務打造客製化的Llama 3.1模型。
另外,NVIDIA與Meta也合作提供Llama 3.1的精簡方案,讓開發人員能藉此構建更小規模的客製化Llama 3.1模型,讓企業能在工作站或筆電端佈署小規模自動生成式人工智慧技術。
目前包含醫療保健、金融服務、零售、運輸和電信領域公司已經開始使用NVIDIA NIM微服務,而首波採用Llama 3.1與新版NVIDIA NIM微服務的企業包括沙烏地阿拉伯國家石油公司、AT&T、Uber,以及其他業者,藉此對應更快執行反應速率
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》