18+

結合Llama 3.1開源模型、搭配NVIDIA AI Foundry服務與NIM微服務 更快打造各類客製化AI應用功能

▲結合Llama 3.1開源模型、搭配NVIDIA AI Foundry服務與NIM微服務,更快打造各類客製化AI應用功能
▲結合Llama 3.1開源模型、搭配NVIDIA AI Foundry服務與NIM微服務,更快打造各類客製化AI應用功能

針對Meta稍早公布可對應4050億組參數規模的大型自然語言模型Llama 3 .1,NVIDIA在稍早對外說明Llama 3.1以超過16000組NVIDIA H100加速器、超過15兆個詞元 (token)資料集訓練而成,並且透過NVIDIA AI Foundry服務與NVIDIA NIM微服務讓企業打造各類客製化人工智慧 應用功能。

NVIDIA表示,其NVIDIA AI Foundry服務是以NVIDIA DGX Cloud AI平台建構而成,並且能依照人工智慧運作規模等需求擴展。另一方面,則是藉由NVIDIA NIM微服務快速佈署人工智慧模型應用,藉此快速建構各類以人工智慧驅動的網路服務。

▲NVIDIA AI Foundry服務是以NVIDIA DGX Cloud A...
▲NVIDIA AI Foundry服務是以NVIDIA DGX Cloud AI平台建構而成,並且能依照人工智慧運作規模等需求擴展

▲藉由NVIDIA AI Foundry服務與NVIDIA NIM微服務打造客製...
▲藉由NVIDIA AI Foundry服務與NVIDIA NIM微服務打造客製化人工智慧服務的流程

▲NVIDIA NIM微服務將能對應各類應用服務設計
▲NVIDIA NIM微服務將能對應各類應用服務設計

而透過此次Meta推出的大型自然語言模型Llama 3.1,結合NVIDIA旗下軟體、運算技術,即可針對特定應用需求建構客製化的「超級模型」,例如藉由NVIDIA Nemotron Reward模型所產生合成資料,用於訓練不同客製化的「超級模型」。

▲Meta稍早宣布推出的Llama 3.1模型,可對應4050億組、700億組或...
▲Meta稍早宣布推出的Llama 3.1模型,可對應4050億組、700億組或80億組參數規模,同時也能結合NVIDIA NIM微服務運作使用

企業目前可透過NVIDIA官網下載適用於Llama 3.1的NVIDIA NIM微服務,藉此建構包含人工智慧數位助理、數位分身等應用功能,而全球專業服務公司Accenture目前已經率先採用NVIDIA AI Foundry服務,透過其Accenture AI Refinery框架建立客製化的Llama 3.1應用模型,藉此加快人工智慧技術應用發展。

▲對應更快的人工智慧運作效率
▲對應更快的人工智慧運作效率

至於需要額外訓練資料,藉此創建特定領域模型應用的企業,則可同時使用Llama 3.1 4050億組參數版本,搭配NVIDIA Nemotron-4 3400億組參數版本所生成合成資料,進而在建立客製化「超級模型」時提高其運作精準度,而擁有自身訓練資料的企業,則可透過NVIDIA NeMo服務打造客製化的Llama 3.1模型。

另外,NVIDIA與Meta也合作提供Llama 3.1的精簡方案,讓開發人員能藉此構建更小規模的客製化Llama 3.1模型,讓企業能在工作站或筆電端佈署小規模自動生成式人工智慧技術。

▲可對應多元人工智慧應用場景
▲可對應多元人工智慧應用場景

目前包含醫療保健、金融服務、零售、運輸和電信領域公司已經開始使用NVIDIA NIM微服務,而首波採用Llama 3.1與新版NVIDIA NIM微服務的企業包括沙烏地阿拉伯國家石油公司、AT&T、Uber,以及其他業者,藉此對應更快執行反應速率

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱