APMIC攜手Twinkle AI推出台灣首個可在手機端執行的30億組參數繁體中文推理模型「Formosa-1」

聯合新聞網 楊又肇

2017年在台灣創立、本身為NVIDIA微調模型生態夥伴的企業自主人工智慧解決方案業者APMIC (Accelerate Private Machine Intelligence Company)宣布與繁體中文語言模型研究社群Twinkle AI合作,推出台灣首個可用於手機端運行的30億組參數規格繁體中文推理模型「Formosa-1」。

此外,APMIC也與Twinkle AI合作開源高效評測框架「Twinkle Eval」,藉此用於評估人工智慧模型效能,進而推動台灣人工智慧技術發展與在地應用推廣。

「Formosa-1」是由APMIC與Twinkle AI社群研發,並且在國家高速網路與計算中心 (國網中心)研發團隊的技術支持與經驗分享下打造,成為台灣首款可在手機端運行的30億組參數規模大型語言模型。

此模型透過基於NVIDIA NeMo端對端平台製作的APMIC PrivAI產品模型,配合蒸餾技術進行訓練,並且以MIT授權方式完全開放模型權重,藉此推動台灣繁體中文開源人工智慧技術應用發展。

為了提升其模型推理能力,「Formosa-1」以貼合台灣在地思維鏈 (Taiwan Chain of Thought, TCoT)資料訓練,並且搭配NVIDIA NeMo Data Curator加速資料管理服務,確保在法律推理、邏輯思辨與數學推演方面能有更好表現。

而語言資料建構方面,「Formosa-1」的訓練數據涵蓋1000億規模,並且包含新聞、法律、論文、社會討論等多元文本的高品質繁體中文詞元 (Tokens),確保人工智慧對於繁體中文語境的精準理解與應用。

至於針對大型推理模型設計的開源評測框架「Twinkle Eval」,則是與NVIDIA NeMo Evaluator評估模型進行深度整合,支援大規模並行測試,確保模型在多領域的穩定性與準確性。

「Twinkle Eval」透過隨機化選項排序來確保測試公平性,避免模型記憶固定選項順序,並且引入重複測試機制,透過多次獨立推論驗證模型的穩定性。該工具內建台灣通識與專業能力混合題庫 (TMMLU+)、台灣法律語料測試集 (tw-legal-benchmark-v1)及MMLU基準測試集,確保測試範圍的廣度與準確性。

此外,透過格式精控與錯誤修復機制,更可讓「Twinkle Eval」有效確保答案格式的一致性,並且降低測試錯誤率。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

📌 數位新聞這裡看!

 訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢甩開悠遊卡?北捷10月開放多元支付閘門 1招真能用iPhone快速模式嗶進站
📢 手機壞掉不能換SIM卡?NCC疑新規定「90天2次」 他傻眼曝倒霉時間軸
📢 Switch 2完整拆解!Joy-Con 2控制器仍會遇上飄移問題
📢 TORRAS COOLiFY Cyber、COOLiFY 2S AI頸掛空調開箱!實測戶外超涼 還能解落枕
📢 他逛光華商場驚覺變無聊又被盤!過來人羞曝「朝聖攻略」:好吃又好玩
📢 iPhone 17改名iPhone 2025?他搖頭揭背後「藏大招」 賺錢金頭腦原理曝

楊又肇

曾任聯合新聞網 (udn.com)數位頻道記者,目前為自由寫手與Mas...

人工智慧 Formosa-1 AI 繁體 中文 台灣 模型

推薦文章

留言