18+

傳Anthropic計畫採購英國RISC-V新創Fractile晶片 主打推論效能百倍躍升

在生成式AI 模型競賽進入白熱化的階段,高昂的「推論」 (Inference)成本與運算瓶頸,目前已經成為各大AI巨頭亟欲解決的痛點。根據The Information最新報導指出,AI新創Anthropic 正計畫向一家名為Fractile的英國AI晶片新創公司進行採購,藉此降低AI模型推論運算成本。

Fractile宣稱能將大型語言模型 (LLM)推論效能提升至NVIDIA 產品的100倍、成本卻僅需十分之一的潛力黑馬,其晶片預計將於2027年正式投入市場。

將運算與記憶體 合而為一的「破局者」

成立於2022年的Fractile,其創辦人是來自牛津大學的Walter Goodwin博士。雖然成立時間不長,但其開發團隊陣容堅強,包含網羅曾任職於Graphcore、NVIDIA,以及Imagination Technologies等業界老將。

據Tom's Hardware網站指出,Fractile在2024年就已經完成1500萬美元的種子輪融資,目前正尋求2億美元的新一輪資金,目標將公司估值推升至10億美元的獨角獸門檻。

核心武器在於其架構設計

目前市場主流的NVIDIA GPU,其運算單元與記憶體元件 (如HBM或DRAM)是分開的。在執行AI推論時,資料必須在兩者之間頻繁搬移,這不僅造成惱人的延遲問題,更帶來了龐大的電力能耗,這也是被業界戲稱為「記憶體牆」 (Memory Wall)的最大痛點。

為了打破「這道牆」,Fractile採用基於RISC-V指令集的晶片架構,並且搭配SRAM靜態隨機存取記憶體,大膽地將「運算單元」與「記憶體」整合在同一顆裸晶 (Die)上。官方聲稱,這種消除資料搬移瓶頸的「近記憶體」 (Near-memory)設計,能讓其執行大型語言模型推論的速度,能飆升至NVIDIA GPU的100倍,同時運作成本只需10%。

Anthropic的算力焦慮與分散風險策略

為何Anthropic會看上這家仍在發展初期的晶片新創?答案在於爆發性成長背後的算力焦慮。

截至2025年底,Anthropic的年營收已經暴增至300億美元。不同於OpenAI或xAI積極自建資料中心,Anthropic的策略更偏向「雲端中立」,廣泛使用包含NVIDIA GPU、亞馬遜的Trainium,以及Google TPU在內的第三方運算平台。

隨著業務規模的急速擴張,推論成本已成為沉重的負擔。分析指出,Anthropic此舉不僅是為了取得更高效、更廉價的推論算力,更是為了「分散供應鏈風險」,避免在未來的算力軍備競賽中過度依賴NVIDIA單一架構。

分析觀點

Anthropic傳出採購Fractile晶片,反映當前AI市場的一個重要趨勢:「訓練」 (Training)與「推論」 (Inference)的硬體需求正在加速分流 (例如Google今年首度將第8代TPU拆分成對應訓練的TPU 8t,以及對應推論的TPU 8i)。

在模型訓練階段,NVIDIA憑藉著其龐大且成熟的CUDA軟體生態系,以及卓越的硬體整合能力,在AI市場地位短期內依舊難以撼動。然而,當模型完成完成,並且進入實際應用佈署的「推論」階段時,業者更在乎的是單次回答的「延遲度」與「成本效益」。

這也給目前由NVIDIA收購的Groq,以及諸如Cerebras或此次主角Fractile等主打採用SRAM記憶體或近記憶體架構的新創公司絕佳切入點。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱