在當前的人工智慧 運算與訓練模式中,透過GPU 進行加速似乎已經成為常態,甚至有不少看法認為藉由CPU 處理人工智慧運算或訓練已經不合乎效益,但由電氣電子工程師學會發行雜誌《IEEE Spectrum》在去年發表文章卻指出,CPU在特定情況反而會比GPU更適合用於人工智慧執行、訓練。
《IEEE Spectrum》去年6月報導文章引述人工智慧模型開源共享託管平台Hugging Face推廣長Julien Simon經驗,藉由32核心設計的Intel Xeon處理器處理Intel提出大型自然語言模型Q8-Chat,即可呈現宛如OpenAI 的ChatGPT 運作體驗。
以Julien Simon的看法指出,GPU雖然是當前市場用於加速人工智慧運算及訓練的主流選擇,但顯然並非是絕對。同時,Julien Simon更指出若開發者願意做好功課,並且善用合適工具,實際能透過CPU完成更多人工智慧推論相關工作。
多數人在市場趨勢衝擊印象中,普遍認為CPU缺乏平行處理能力,因此不適合用於深度學習等訓練使用,認為結合GPU進行平行運算加速才是人工智慧技術發展唯一作法。
但實際上從多數運算執行結果回傳數值為零的情況來看,可以凸顯許多人工智慧模型更重要的是如何做到更正確計算,而非單純以大量運算次數定義人工智慧執行效率。換句話說,實際上如何著手從軟體端、模型設計進行最佳化,並且搭配合適硬體,才是讓人工智慧執行效率提升作法。
如同Intel提出Q8-Chat大型自然語言模型執行效率情況,在代號「Sapphire Rapids」的Xeon處理器執行表現,相較代號「Ice Lake」的Xeon處理器執行表現約提升5倍以上,而在相同處理器、搭配軟體最佳化的執行效率表現更有40%幅度提升,顯示人工智慧執行效率更重要的是軟硬體整合,而非單純仰賴硬體效能加速。
實際上,目前的人工智慧運算模式相當多元,透過GPU加速確實不是唯一正解。包含Intel、Qualcomm、AMD在內業者均提出結合CPU、GPU,以及NPU (或XPU、IPU等)運算元件進行協同運算加速設計,藉此提升人工智慧執行運算效率。
目前確實許多人工智慧運算均仰賴GPU加速,但也讓GPU運算元件價格因此水漲船高,甚至可能有市場壟斷情形,這樣的情況確實會對整體人工智慧發展市場不利。從廣面來看,人工智慧運算應該還是要維持其多元性,即便在整體運算架構上也應該對應更具彈性佈署應用型態。
即便積極強調GPU是推動人工智慧技術發展核心的NVIDIA,其實也還是強調CPU的重要性,甚至更進一步著重佈局軟體應用發展,原因就在於CPU仍扮演其重要性角色,同時有不少運算依然仰賴CPU,甚至藉由CPU運算實現成本效益,GPU確實有其運算加速優勢,但本身也還是有高功率運作問題必須作改善,因此主要還是端看人工智慧實際佈署應用需求,並且依照實際情況彈性調整軟硬體整合型態才是最佳作法。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 他讚悠遊卡「Super i貼卡」很好用!意外曝2致命傷「會失效」 官方回應了
📢 【開箱】ROG Phone 9 Pro Edition!LED炫砲又低調「I人不害羞」
📢 出門玩不怕迷路!教你用Google Maps看「實景」找路 每次用每次成功
📢 日本旅遊提行李免鐵腿!教你Google Maps開啟神功能導航「電梯路線」
📢 高CP值娃包瘋搶推薦!郵局收納包僅150元 主管現場開痛包團購「變最帥男人」
📢 便宜資費在這!4G吃到飽488!5G搶市4百有找、再送千元小禮