AI 技術日新月異,雖然提升了工作效率,卻也成為有心人士用來詐騙 的工具。
據《太陽報》(The Sun)報導,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音複製人」,通常被用來竊取使用者的銀行 資訊、身份或密碼 。
哈立德說,「AI語音複製人」的聲音不只跟真人難以區別,政商名流等公共人物更容易陷入被複製的危機。因為公共人物的語音樣本較多,讓AI更能透過深度學習做出真假難辨的音檔。
不僅如此,由於AI技術發展神速,只要在網路上搜尋就能找到許多低成本甚至免費的供應商。防毒軟體McAfee 的研究人員也發現,詐騙集團只需要花3秒鐘,就有辦法複製真人的聲音,利用這種技巧打給家人朋友來騙人。
哈立德說表示,如果能夠使用AI檢測技術來偵測音檔,就可能避免這類的詐騙發生,但短期內應該無法開發出可靠的檢測技術。
要避免語音詐騙,在親朋好友打電話緊急要求匯款、給予物品或其他金援時,應進一步跟本人確認。除此之外,民眾也應避免在網路上分享個人資訊,以避免遭詐騙集團利用。
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 CASETiFY三大保護殼開箱!Ultra終極防摔手機殼 保護角進化iPhone 16多角度掛法
📢 Windows 11重大更新刪除「29年超實用軟體」!網嘆「沒它不行」 微軟曝解方
📢 LINE免費貼圖6款來了!餃貓FAMILY畫風超Q 毛孩圖案爽用到明年4月
📢 果粉等等!蘋果10月傳還有新品發表會 5樣產品先別買
📢 【開箱】Pixel 9 Pro Fold超薄大摺疊!雙螢幕即時翻譯 當立架自拍不求人
📢 Google生日慶優惠一次看!Pixel 9 Pro送9800 配手錶折2千又送點數