18+

蘋果提出ReALM人工智慧模型 標榜「8億組參數」就能理解前後文、識別圖像

蘋果 研究人員提出名為ReALM的人工智慧模型,標榜僅需8億組參數即可對應理解前後文關係,藉此讓Siri數位助理服務更容易了解使用者實際需求,並且加快服務反應效率。

在此之前,蘋果執行長Tim Cook已經透露將在今年擴大人工智慧 技術應用發展,因此不少人猜測iOS 18 作業系統更新將會加入更多人工智慧技術,同時也可能讓Siri數位助理服務變得更「聰明」。

而在Google等業者接連提出大型自然語言模型,甚至可在裝置端執行各類人工智慧推論及自動生成功能,蘋果近期也提出許多自有大型語言模型與人工智慧技術論文,預期將應用在接下來即將推出作業系統或軟硬體產品。

此次由蘋果研究人員提出的ReALM人工智慧模型,將能藉由8億組參數規模理解前後文關係,並且加快反應效率。另外,由於使用參數相對較少,因此適合應用在諸如手機般的終端裝置,並且可在運作時不影響裝置效能

另外,ReALM人工智慧模型也能用於理解圖像中的文字內容,諸如電話號碼或食譜資訊,因此形式上將能與OpenAI GPT-4 模型抗衡,藉此在當前人工智慧技術競爭與Google、微軟、OpenAI、亞馬遜等業者抗衡。

目前暫時無法確認蘋果是否會將ReALM人工智慧模型實際用於旗下產品,但蘋果先前已經多次暗示將在今年推出產品導入更多人工智慧技術,藉此提升產品使用體驗,因此預期今年WWDC 2024 期間將會有更進一步說明。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱