18+

真假難辨!語音詐騙新招 僅花3秒AI就能複製人聲盜你密碼

詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。示意圖/ingimage
詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。示意圖/ingimage

AI 技術日新月異,雖然提升了工作效率,卻也成為有心人士用來詐騙 的工具。

據《太陽報》(The Sun)報導,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音複製人」,通常被用來竊取使用者的銀行 資訊、身份或密碼

哈立德說,「AI語音複製人」的聲音不只跟真人難以區別,政商名流等公共人物更容易陷入被複製的危機。因為公共人物的語音樣本較多,讓AI更能透過深度學習做出真假難辨的音檔。

不僅如此,由於AI技術發展神速,只要在網路上搜尋就能找到許多低成本甚至免費的供應商。防毒軟體McAfee 的研究人員也發現,詐騙集團只需要花3秒鐘,就有辦法複製真人的聲音,利用這種技巧打給家人朋友來騙人。

哈立德說表示,如果能夠使用AI檢測技術來偵測音檔,就可能避免這類的詐騙發生,但短期內應該無法開發出可靠的檢測技術。

要避免語音詐騙,在親朋好友打電話緊急要求匯款、給予物品或其他金援時,應進一步跟本人確認。除此之外,民眾也應避免在網路上分享個人資訊,以避免遭詐騙集團利用。

延伸閱讀

Wi-Fi沒用好直接被駭入!專家四招教你檢驗是否「被入侵中」

手機、筆電或桌機怪怪的 是被盜了嗎?資安專家教你這3招辨別

明明Wi-Fi滿格卻連不上?你的床邊這些東西害你訊號變弱

Google Play商店又抓到2款惡意APP 恐竊聯絡人個資、監視用戶定位

本日熱門 本周最熱 本月最熱