AI重點
文章重點整理:
- 重點一:OpenAI推出GPT-5.3-Codex-Spark模型。
- 重點二:模型運行在Cerebras Systems晶片上。
- 重點三:延遲降低80%,提升運算效率。
OpenAI 稍早公布首款運行在Cerebras Systems晶片 上的全新AI模型 ——GPT-5.3-Codex-Spark。這是OpenAI首度將旗下產品的運算基礎移出NVIDIA晶片,不僅意味其分散晶片供應鏈的策略開始施行,也為非NVIDIA陣營的AI加速器打了一劑強心針。
主打「極速推論」,專為寫程式而生的輕量模型
這次推出的GPT-5.3-Codex-Spark,是OpenAI旗下程式碼 自動化工具Codex的輕量化版本,其設計初衷並非追求極致的複雜運算效能,而是主打「效率」。
對於軟體工程師來說,AI寫程式助理最重要的是「即時反應」。GPT-5.3-Codex-Spark允許開發者快速完成修改程式碼、執行測試等日常任務,甚至能隨時中斷當前作業,並且指派新任務,大幅減少等待AI生成結果的時間。
而這一切速度的背後,是來自OpenAI上個月與AI晶片新創業者Cerebras Systems簽下的百億美元合約。該模型目前運行在Cerebras Systems的旗艦級晶片Wafer Scale Engine 3 (WSE-3) 上,這是一顆專為高速推論 (Inference)打造的巨型AI加速器。
底層管線大翻修,延遲大幅降低80%
為了配合Cerebras Systems的硬體架構,OpenAI不僅針對新晶片進行最佳化,還對整體的推論運算流程 (Inference Pipeline)進行大幅度的改良。這些底層的升級帶來了顯著的效能提升:
• 來回延遲降低80%:客戶端與伺服器之間的通訊速度大幅提升。
• 首字元產出時間 (TTFT)縮短50%:AI開始吐出第一段程式碼的反應時間減半。
• 每Token開銷降低30%:運算成本顯著下降。
• 提高WebSocket連線時間:預設啟用,確保對話過程的穩定與即時性。
目前,GPT-5.3-Codex-Spark仍是一個純文字模型,具備128K的上下文長度 (Context Window),暫不支援圖片或多模態輸入。該模型目前以「研究預覽」的形式,率先開放給ChatGPT Pro訂閱用戶測試,預計未來幾週內會擴大開放範圍。
積極拓展朋友圈,但NVIDIA仍是「正宮」
這項合作對Cerebras Systems來說,無疑是在NVIDIA長期霸佔的市場中撕開了一道重大突破口。而對OpenAI來說,這只是其近期一系列「分散供應商風險」操作的最新進展。
回顧去年10月,OpenAI已經與AMD達成多年期協議,預計佈署高達6 GW規模的GPU算力,甚至同月內也與博通簽約,著手開發客製化晶片 (ASIC)與網路元件。
不過,面對外界關於「OpenAI與NVIDIA關係緊張」的傳聞,OpenAI官方仍火速出面滅火。發言人強調,與NVIDIA的夥伴關係是「基礎性的」 (Foundational),並且重申NVIDIA的硬體依然是OpenAI訓練和推論架構的核心。引進Cerebras Systems、AMD與博通晶片,純粹是為了「擴展生態系統」。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 Pixel 10a開箱親民價!平面鏡頭 實測拍照、AI生圖順手、還能用AirDrop
📢 蘋果「超強新品」MacBook Neo來了!平價筆電免2萬 4色搶美又輕巧
📢 蘋果最新舊換新Trade in價格出爐!iPhone 16更值錢 13款手機跌價
📢 蘋果iPhone 17e與iPhone 17差在哪?1表全解析 補足MagSafe
📢 LINE免費貼圖!初音未來超可愛、這款「狗沒拿賽」諧音哏滿滿
📢 M4 iPad Air和M3差在哪裡?一圖了解高CP值 果粉在意「萬年60Hz」

討論區