AI重點
文章重點整理:
- 重點一:Google Search Live功能正式上線,具備視覺識別與對話能力。
- 重點二:即時翻譯功能擴展至iOS,支援超過70種語言。
- 重點三:Search Live將AI技術應用於全球200多個國家與地區。
經過上週的小規模測試 (以及幾次「誤發」)後,Google今日 (3/27)終於正式宣佈,具備視覺識別與對話能力的「Search Live」搜尋功能即日起向全球使用者推送。這項結合Google Lens視覺搜尋與Gemini生成式AI的創新工具,允許使用者直接將手機鏡頭對準眼前的物體或場景,並且以自然語言進行提問。
與此同時,Google也將原本由Pixel 手機獨佔的「即時翻譯 」 (Live Translate)功能全面導入iOS 平台,並且擴展支援日語、德語、義大利與語超過70種語言,試圖透過AI模糊物理世界與數位資訊的邊界。
Search Live:鏡頭下的「即時百科全書」
「Search Live」的核心技術來自於Google最新的Gemini 3.1 Flash Live模型,而這款模型在設計之初就強調「原生多國語系」與「極速反應」,讓Search Live具備以下特性:
• 視覺對話:使用者可以對著路邊不知名的植物,或是故障的家電零件提問:「這該怎麼修?」,或是「這需要多少陽光?」,AI會即時分析畫面內容,並且給予解答。
• 自然語音互動:藉由Gemini 3.1的低延遲特性,對話過程更接近人類間的交流,不再有過往語音助理明顯的停頓感。
• 全球覆蓋:此次更新確定涵蓋全球超過200個國家與地區,只要是支援Google AI模式 (AI Mode)的地方都能使用。
[video width="1200" height="675" mp4="https://mashdigi.com/wp-content/uploads/Search_Live_global_expansion.mp4"][/video]
即時翻譯進駐iOS:打破平台與語言藩籬
除了搜尋技術的進化,Google也強化了其翻譯生態系:
• 跨平台支援:此前多見於Android陣營的「即時翻譯」功能,現在正式於iOS上線。使用者只需戴上耳機,就能即時聽取對方的翻譯對白。
• 語系擴展:新增支援日本、英國、德國、義大利與西班牙等國,目前總計可理解超過70種語言,且相容於市面上任何品牌的耳機,不再侷限於Pixel Buds。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
精華 FAQ
-
Search Live結合Google Lens與Gemini AI,允許用戶透過手機鏡頭直接詢問物體或場景,並即時獲得回答,提供視覺對話與自然語音互動的體驗。
-
即時翻譯功能現在支援日語、德語、義大利語及西班牙語等,總計超過70種語言,並可與市場上任何品牌的耳機相容使用,提升了跨語言交流的便利性。
-
這項功能確定涵蓋全球200多個國家與地區,只要是支援Google AI模式的地方,用戶皆可使用Search Live,展現了Google在技術擴展上的野心。

討論區