NVIDIA 表示,去年宣布推出的H100 Tensor Core GPU 再次於MLPerf基準測試創下新紀錄,相比近半年前的紀錄快上3倍。
此次以10752組H100 Tensor Core GPU與Quantum-2 InfiniBand網路技術構成的NVIDIA EOS人工智慧超級電腦,在短短3.9分鐘內完成以Open AI GPT-3大型自然語言模型、多達1750億組參數的訓練基準,相比近半年前以10.9分鐘完成的紀錄,約快上3倍速度。
而從此訓練基準僅採用GPT-3資料集的一部分,若要完成所有訓練的話,大制約花費8天時間,仍比過往透過512組A100 GPU的超級電腦約仍上73倍。
NVIDIA表示,在GPU數量增加3倍情況下,訓練效率也相對提高2.8倍,而更有部分得力於軟體最佳化,使得訓練效率可提升達93%。而縮短訓練所需時間,更意味將使人工智慧成長速度可大幅提升。
在此次測試中,NVIDIA表示在訓練推薦模型運算表現也比先前快上1.6倍,在電腦視覺模型RetinaNet上的運作效率更提高1.8倍,同時也強調H100 GPU在MLPerf九項測試均有最高效能及最大運算擴展能力,更意味能使需要訓練大量大型自然語言模型,或是使用NVIDIA NeMO等框架的人工智慧服務能更快進入市場,甚至能以更低訓練成本與更少能源損耗運作。
從2018年5月推出以來,MLPerf基準測試藉由本身客觀、透明特性,已經獲得亞馬遜、Arm、百度、Google、哈佛大學、HPE、Intel、聯想、Meta、微軟、史丹佛大學與多倫多大學在內機構採納使用,同時也成為NVIDIA用於衡量其超級電腦、加速運算元件效能衡量基準。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》