18+

Appier提出具備「自我覺察」能力的 Agentic AI 讓人工智慧學會說「不知道」

▲由左至右為Appier個人化雲產品副總監林冠樺、Appier執行長暨共同創辦人游直翰、Appier AI團隊研究科學家林玠言
▲由左至右為Appier個人化雲產品副總監林冠樺、Appier執行長暨共同創辦人游直翰、Appier AI團隊研究科學家林玠言

隨著生成式AI快速普及,企業在導入AI時面臨的挑戰,已經從早期的「能不能用」轉變為「敢不敢信任」。過去許多AI模型即使缺乏正確資訊,仍會給出看似自信的「幻覺 」回覆,而這在實際商業場景中往往會釀成嚴重的營運危機。

對此,Appier 4月15日分享其國際AI研究團隊的最新前瞻成果,強調未來Agentic AI (代理型AI) 的發展關鍵在於賦予系統「自我覺察力」。透過四大關鍵技術,Appier讓AI能在關鍵時刻精準提問、評估風險,並且準確掌握自身能力邊界,推動商用AI從單純的生成工具,進化為企業可信賴的決策大腦。

解決AI 「硬是回答」的企業痛點

從客服錯答到虛構活動內容,AI不知道自己「行不行」卻硬答的狀況,已經讓不少企業付出真實代價。

Appier執行長暨共同創辦人游直翰指出,未來的AI Agent (AI代理)將加速串聯人、工具與軟體,形成更複雜的「Agent society」 (代理社群)。企業能否搶佔 Agentic AI先機,核心關鍵就在於AI是否具備可被信任的決策力。

他進一步強調,台灣在全球AI產業鏈中不僅擁有硬體優勢,也具備解決世界級問題的軟體實力,Appier正透過龐大的數據壁壘與領域知識,將可信任的Agentic AI帶入真實商業場景。

四大關鍵技術:打通投資報酬率的最後一哩路

Appier長期投入AI產學合作,累計已在NeurIPS、ACL、EMNLP等國際權威協會發表超過400篇論文。針對目前企業導入Agentic AI的阻礙,Appier提出四項核心解法:

防止持續學習的「災難性失憶」:許多模型在針對特定任務微調後,會「忘記」原有的邏輯推理能力。Appier提出穩定的微調方法,從源頭辨識、迴避高困惑度的Token。數據顯示,該方法不僅前處理時間僅需8分鐘,更將非目標任務的退化率降至接近0%,讓AI能在企業環境中穩定且高效地持續學習。

拒絕盲猜的「精準提問」:當遇到模糊指令時,AI往往會主觀盲測或過度追問造成使用者困擾。Appier導入可驗證的外部回饋,並且在回答前透過其他大型語言模型 (LLM)進行交叉驗證,讓AI的提問更精準且具必要性,使任務精準度與使用者體驗的平衡效益提升超過30%。

情境導向的「風險評估」:Appier採用「技能拆解」架構,將解題、信心評估與期望值決策分開處理。這讓AI能具備風險感知能力,依據情境判斷何時該作答、拒答或上報真人處理,成功將高風險預期虧損大幅降低60%至70%。

低推論成本的「能力校準」:有別於傳統只看單次回答正確與否,Appier打造全新的能力校準機制,讓AI在實際回答前先預估「答對機率」,更精確地界定自身能力邊界,而此推論成本極低,甚至不到1個Token。

從B2C到B2B:實戰場景的「防呆」表現

這些前瞻技術目前已實際整合進Appier AI Agent的運作流程中,並且體現在企業與消費者的互動場景。

在面向消費者的Sales與Service Agent中,當使用者詢問美妝品牌Agent關於「母親節餐廳推薦」這類無關問題時,具備覺察力的Agent不會為了迎合用戶而亂答或虛構產品色號,而是會釐清問題,並且在合適時機導回品牌相關商品,降低不當互動的風險。

在企業內部營運的Audience Agent應用上,若行銷人員要求分析「近五年」的受眾數據,但系統實際只能存取「一年」資料時,Agent不會硬湊答案,而是會如實告知資料限制、主動釐清條件,並且提供包含優缺點說明的替代方案。

根據Appier的實際驗證,目前的AI Agent已經能為企業用戶成功阻擋80%的風險回應,並且將隨著數據迭代持續優化。從「萬能工具」走向「AI同事」,Appier強調企業需要的不再是什麼都敢答的系統,而是懂得「知之為知之,不知為不知」的智慧Agent。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱