
鴻海研究院 3月10日宣布推出其首款繁體中文人工智慧 大型語言 模型 ,內部開發代號為「FoxBrain 」,更標榜此模型僅以四周時間完成訓練,以更低訓練成本建置。
「FoxBrain」原為鴻海內部應用而設計,涵蓋數據分析、決策輔助、文書協作、數學、推理解題與程式編碼生成等功能,後續將對外開源分享。除了展現強大的理解與推理能力,鴻海更標榜「FoxBrain」針對台灣使用者的語言風格進行最佳化,並且在數學與邏輯推理測試中表現出色。
鴻海研究院人工智慧研究所栗永徽所長表示,「近幾個月,推理能力的深化以及GPU的高效運用逐漸成為AI 領域發展主流。我們的FoxBrain模型採用高效訓練策略,專注於訓練過程優化而非盲目堆砌算力。通過精心設計的訓練方法和資源優化,我們成功打造出具備強大推理能力的本土AI模型。」
而在「FoxBrain」訓練過程中,鴻海研究院人工智慧研究所使用120組NVIDIA H100 GPU,並且透過NVIDIA Quantum-2 InfiniBand網路進行擴展訓練,僅花約四周時間完成,相較於近期其他公司所推出的推理模型,以更高效率、更低成本方式完成訓練。
「FoxBrain」採用Meta Llama 3.1為基礎架構,對應700億組參數規模,透過自主技術建立24類主題資料強化方式與品質評估方法,並且生成980億組詞元構成的高品質中文預訓練資料,同時在上下文處理長度可達128000組詞元內容,另外更採用多節點平行訓練架構,確保高效能與穩定性,更藉由獨特的Adaptive Reasoning Reflection技術讓模型學會自主推理。
在測試結果方面,「FoxBrain」在數學領域比起Meta Llama 3.1有顯著提升,同時相比目前最好的繁體中文大模型Taiwan Llama在數學測試也有顯著進步,在數學推理能力更超越Meta目前推出的同等級模型更高,但略低於DeepSeek以蒸餾形式打造模型。

而此次宣布建立「FoxBrain」,鴻海也強調台灣科技人才在人工智慧大型語言模型領域也能與國外人才並駕齊驅,並且預期透過對外開源分享,藉此擴大「FoxBrain」運用範圍,進而推動人工智慧在製造業、供應鏈管理與智慧決策等領域應用廣度。
鴻海未來將透過導入人工智慧大型語言模型,藉此提升智慧製造、智慧電動車、智慧城市等三大平台的數據分析效率,讓「FoxBrain」成為驅動智慧應用升級的重要引擎。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》