印度與巴基斯坦上月爆發4天衝突,各種錯誤資訊爆增,社群媒體用戶求助人工智慧 (AI )聊天機器人來驗證,卻陷入更多謬誤。這凸顯AI作為事實查核工具有多不可靠。
法新社報導,隨著科技平台刪減真人事實查核員,用戶愈來愈常仰賴AI聊天機器人來搜尋可信資訊,例如xAI的Grok 、OpenAI的ChatGPT和谷歌(Google)的Gemini。
科技大亨馬斯克(Elon Musk)的X平台內建AI助理Grok,用戶經常就某個資訊的真偽向Grok提問,反映出社群媒體用戶立即分辨虛實的趨勢日漸成長。
但答覆本身往往充斥錯誤資訊。
Grok錯誤認定一段蘇丹首都喀土穆(Khartoum)機場的舊影片,是近期印巴衝突中針對巴基斯坦努爾汗(Nur Khan)空軍基地的飛彈攻擊。由於Grok在沒有關聯的回答中提到極右翼陰謀論的「白人種族滅絕」一說,正再次受到詳查。
另一段呈現尼泊爾一棟建築物起火的不相干影片,被錯認為「可能」顯示巴基斯坦軍方回應印度攻擊。
假消息監管機構「新聞守門人」(NewsGuard)研究員沙迪吉(McKenzie Sadeghi)告訴法新社:「在X和其他大型科技公司減少投資真人事實查核員的同時,(用戶)愈來愈仰賴Grok查核事實。」
她警告:「我們的研究一再發現,AI聊天機器人不是可靠的新聞和資訊來源,尤其是突發新聞。」
「新聞守門人」研究發現,10款主要聊天機器人容易重複錯誤資訊,包括俄羅斯的假消息敘事,以及與近期澳洲大選有關的錯誤或誤導性說法。
哥倫比亞大學(Columbia University)陶氏數位新聞中心(Tow Center for Digital Journalism)近期研究8款AI搜尋工具後發現,聊天機器人「通常不擅長拒絕回答自己無法準確回覆的問題,而是提供不正確或臆測的答案」。
法新社在烏拉圭的事實查核員拿一張AI生成的女子照片向Gemini提問,Gemini不僅證實照片真實無誤,還捏造這名女子身分的細節,以及可能的拍攝地點。
長期以來,在極為分化的政治氛圍中,真人事實查核一直是極具爭議的議題,尤其在美國,保守派倡議人士堅稱這種查核方式打壓言論自由,專門審查右翼言論;專業查核員則大力否認這類指控。
AI聊天機器人的品質和準確性,依訓練方式和程式設計而異,因此令人擔心這些機器人提供的答案可能受到政治影響或控制。
國際事實查核聯盟(International Fact-CheckingNetwork)負責人霍蘭(Angie Holan)說:「我們已看到,在真人程式設計師具體變更指示後,AI助理會捏造結果,或提供有偏見的答案…我特別關切的是,Grok在收到提供事先授權答案的指示後,不當處理有關非常敏感事務的要求。」
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 TORRAS FlexLine 67W充電器開箱!1秒收納伸縮線 Switch 2也能快充
📢 4G、5G便宜資費懶人包/5G方案399元最划算、4G吃到飽繼續降價
📢 蘋果秋季發表會他篤定是9月這天!除了iPhone 17系列還有新品亮相
📢 Google新品發表會傳8月登場!除了Pixel 10爆料共9款新品亮相超期待
📢 2025台灣蘋果BTS方案起跑!贈品自由配最多8選1省1萬6 優惠資格一次看
📢 免費貼圖4款!陳傑憲+自取名字陪你到明年、厭世上班族這一款超好用