AI 技術日新月異,雖然提升了工作效率,卻也成為有心人士用來詐騙 的工具。
據《太陽報》(The Sun)報導,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音複製人」,通常被用來竊取使用者的銀行 資訊、身份或密碼 。
哈立德說,「AI語音複製人」的聲音不只跟真人難以區別,政商名流等公共人物更容易陷入被複製的危機。因為公共人物的語音樣本較多,讓AI更能透過深度學習做出真假難辨的音檔。
不僅如此,由於AI技術發展神速,只要在網路上搜尋就能找到許多低成本甚至免費的供應商。防毒軟體McAfee 的研究人員也發現,詐騙集團只需要花3秒鐘,就有辦法複製真人的聲音,利用這種技巧打給家人朋友來騙人。
哈立德說表示,如果能夠使用AI檢測技術來偵測音檔,就可能避免這類的詐騙發生,但短期內應該無法開發出可靠的檢測技術。
要避免語音詐騙,在親朋好友打電話緊急要求匯款、給予物品或其他金援時,應進一步跟本人確認。除此之外,民眾也應避免在網路上分享個人資訊,以避免遭詐騙集團利用。
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 他讚悠遊卡「Super i貼卡」很好用!意外曝2致命傷「會失效」 官方回應了
📢 【開箱】ROG Phone 9 Pro Edition!LED炫砲又低調「I人不害羞」
📢 出門玩不怕迷路!教你用Google Maps看「實景」找路 每次用每次成功
📢 日本旅遊提行李免鐵腿!教你Google Maps開啟神功能導航「電梯路線」
📢 高CP值娃包瘋搶推薦!郵局收納包僅150元 主管現場開痛包團購「變最帥男人」
📢 便宜資費在這!4G吃到飽488!5G搶市4百有找、再送千元小禮