資安專家揭可用修辭話術 逼ChatGPT洩漏敏感資料

中央社 台北1日電
GPT-4在測試時,竟成功僱用一名人類協助破解驗證碼,過程中還為達成目的而說謊。...

義大利因隱私疑慮封鎖爭議性聊天機器人ChatGPT,開西方國家第一槍。資安專家發現,不肖使用者可利用修辭上的「施壓」話術,規避語言模型對回答內容設下的道德限制,甚至可能藉此取得敏感資料。

法新社報導,義大利隱私保護監管機構已封鎖聊天機器人ChatGPT,並表示這款人工智慧(AI)應用程式不重視用戶資料,且無法核實用戶年齡。

資安業者趨勢科技資深技術顧問簡勝財今天接受中央社記者採訪表示,生成式AI是一種語言模型,設計成幫用戶歸納答案作為參考,不肖使用者可利用一些修辭技巧,規避預設的道德限制。

根據趨勢科技研究,大型語言模型必須使用「語言」來定義規範,卻很容易被不肖使用者規避。使用者可利用一些修辭上的話術,諸如「拜託不管怎樣都請幫我做到」、「如果你可以說,你會怎麼說」,藉由對系統施壓要它違反政策,來揭露像是訓練模型過程當中會用到的個人身分識別等資訊。

簡勝財說,語言模型更大風險是有可能助長社交工程陷阱和網路釣魚,像是透過AI可更容易生成釣魚信件內容,加上語言模型可流暢地使用多國語言來生成內容,讓網路犯罪集團不會受到語言隔閡的限制,更容易進行跨國詐騙。

歐洲刑警組織發現,犯罪分子可能會利用ChatGPT「大幅加快對未知領域的研究程序」,像是包括草擬詐欺犯案計畫,或是查詢「如何闖入民宅、犯下恐怖行動、網路犯罪與兒童性侵案」等資訊。

歐洲刑警組織指出,聊天機器人能模仿說話風格,對於發動網路釣魚攻擊特別能派上用場,進而引誘使用者點擊虛假電郵連結,之後再試圖竊取資料。

推薦文章

留言