蘋果WWDC 透露正「惦惦」務實精進AI效能

經濟日報 編譯簡國帆/綜合外電

在微軟、Google及新創公司等都在吹捧生成式人工智慧(AI)技術之際,蘋果今年全球開發者大會(WWDC 2023)的發表內容顯示,這家全球市值最高的科技業者並未缺席這場AI競賽,只是選擇「惦惦」務實地不斷新增功能。

CNBC報導,蘋果這場發表會最吸引人目光的,或許是Vision Pro頭戴裝置,但蘋果同時也發表好幾項重大的AI功能,包括改善iPhone的文字輸入自動校正(autocorrect)功能,背後的基礎為機器學習技術的transformer語言模型-這種語言模型正是支撐ChatGPT的相同技術。

蘋果表示,新的自動校正功能甚至還能從用戶輸入的文字與類型中學習。蘋果軟體主管費德納吉說:「在你只想輸入髒話的時候,嗯,鍵盤也會學習。」他用了「ducking」這個字自嘲,因為iPhone自動校正功能很常用很沒邏輯的「ducking」這個字,替代一個很常見的髒話。

OpenAI的ChatGPT用戶數或許在推出兩個月後觸及1億人,但iPhone用戶卻有10億人,給予蘋果改善功能的莫大優勢。

相較於其他對手都正用伺服器農場、超級電腦等裝置打造更大的模型,蘋果希望AI模型在其裝置上運作,新的自動校正功能尤其令人印象深刻,因為是在iPhone上運行,而ChatGPT等模型需要許多昂貴的繪圖晶片(GPU)同時運作。

裝置內AI也避開許多雲端AI服務所面臨的數據隱私問題,同時正因為模型是在iPhone運作,蘋果也不需要蒐集那麼多數據。這也與蘋果嚴格管控自家硬體緊密相關。蘋果每年都會堆疊新的AI電路和GPU在其晶片上,而且掌控整體晶片架構,得以適應新的功能調整。

蘋果不太喜歡討論「人工智慧」這四個字,而是比較常談到「機器學習」或簡單討論這項技術所促成的功能,但其實這項功能背後的技術很「酷」。

其中一個例子,是藍芽無線耳機AirPods Pro會在用戶對話時,自動關閉降噪。蘋果並未形容這是一個機器學習功能,但這是個很難解決的問題,解決方案正是根據AI模型。

蘋果在台北時間6日凌晨舉行全球開發者大會(WWDC)公布相關新產品,其中混合實境...

另一個例子是iPhone能從許多照片中認出用戶的寵物、而不是其他狗或貓,把所有用戶的寵物照片集中到一個資料夾內。

WWDC 2023 人工智慧 頭戴裝置 蘋果 Apple

推薦文章

留言