根據彭博新聞記者Mark Gurman的最新報導,蘋果 最快將於下個月 (2月) 正式對外展示與Google Gemini 的合作成果,意味讓果粉望穿秋水的「真・智慧版Siri」,有可能隨著iOS 26.4 Beta測試版一同亮相。
iOS 26.4成關鍵,Siri智商大躍進
還記得蘋果曾在2024年WWDC開發者大會上展示功能嗎?像是Siri能看懂螢幕內容,或是知道你媽幾點下飛機?這些功能拖了快兩年,現在終於要兌現了。
據傳,即將在2月釋出Beta、預計3月或4月正式推送到用戶手上的iOS 26.4,將會是Siri脫胎換骨的關鍵版本。透過整合Google Gemini模型技術,新版Siri將具備以下核心能力:
• 螢幕感知 (On-screen Awareness):能理解現在螢幕上顯示的內容,並且做出相應反應。
• 個人脈絡理解:能深入撈取信件、訊息等App資訊,並且回答像是「我跟某某某約幾點吃飯」這種需要跨App整合的問題。
• App內操作:不再只是幫忙打開App,而是能深入執行具體的指令動作。
代號「AFM v10」、1.2兆組參數的混血巨獸
有趣的是,雖然骨子裡用的是Google Gemini的技術,但蘋果依然保持其一貫的「封閉」命名美學。根據報導指稱,這套運行在蘋果私有雲運算 (Private Cloud Compute) 架構上的模型,內部代號被稱為「Apple Foundation Models version 10」 (AFM v10)。
傳聞其參數規模高達1.2兆組,顯示蘋果為了挽救Siri的名聲,不惜下重本租用Google的頂級算力。
而在今年稍晚將推出的iOS 27中,蘋果更計畫推出代號為「AFM v11」的進階版本模型,屆時Siri將會變成類似ChatGPT的全功能聊天機器人,運算執行能力據說將直逼Google最新的Gemini 3。
為什麼是Google?Anthropic太貴、OpenAI搶人
這場世紀聯姻其實並非一帆風順。報導指出,蘋果在正式定案前其實也找過Anthropic和OpenAI。不過,傳Anthropic開價要求每年數十億美元的授權費,讓精打細算的蘋果執行長Tim Cook縮手,而OpenAI雖然技術強,但近期狂挖蘋果人才牆角,還跟前設計長Jony Ive攜手合作打造硬體,讓蘋果高層心存芥蒂。
最終,在法院裁定Google搜尋引擎 預設地位合法後,蘋果認為與這位「最熟悉的陌生人」合作,反而是最安全且利益最大化的選擇。
分析觀點
「打不過就加入」,這句話用在現在的蘋果AI策略上再貼切不過。
這兩年蘋果在生成式AI領域的落後是有目共睹,雖然自家也養了一票AI團隊,但要從頭訓練出一個能跟GPT-4 或Gemini抗衡的大型AI模型,不僅燒錢、更燒時間。對於極度重視使用者體驗 (還有股價)的蘋果來說,直接拿Google已經成熟的解決方案來「貼牌」,是最快能止血且縮短差距的戰術。
但這也是一把雙面刃。長遠來看,如果iOS的核心大腦是由Google控制,那蘋果引以為傲的「軟硬整合」與「隱私護城河」是否會出現破口?以及未來的Siri到底算是蘋果的Siri,還是Google Assistant的「換皮版」?這將是接下來幾年,Tim Cook必須面對的最大戰略難題。
不過對消費者來說,只要Siri能聽得懂人話,不要再說「我在網路上幫你找到了這些」,那就是謝天謝地了。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
