一鍵「脫衣」…網路出現製作假裸照AI程式 逾10萬人受害
英國廣播公司(BBC)10月21日報道,荷蘭情報企業Sensity公開一份新報告,指出有人工智慧(AI)程式讓網民製作他人的假裸照,再在網上分享,估計在2019年7月至2020年7月期間,大約有10.5萬名女性受害。報告提到該技術是利用「深偽技術機械人」(deepfake bot)。
網民只需要將一名女性的照片,可以通過社交程式Telegram把照片傳送予人工智慧程式,然後就可得到一張假的裸照。程式會繪製照片主角沒穿衣服的形象,助用戶為她們一鍵「脫衣」。他們可下載並分享照片。惟程式的功能只對女性的照片有效。
用家可以選擇付款來移除假裸照上的水印,還可比不付費的用家更快取得照片。
部分受害人未成年
Sensity的調查發現,部分假裸照中的主角看似未成年。以往曾有名人及政客成為假裸照的受害者。惟調查指,63%涉事Telegram人工智慧程式的用家稱,他們主要地有意為在現實生活中認識的女性「脫衣」。
調查員找到的大部分假裸照,其原圖似乎是從社交網或私人通訊的途徑取得,受害者可能不知道此事。Sensity總裁帕特里尼(Giorgio Patrini )表示:「任何人只要擁有社交媒體帳號及有公開的照片,就足以成為目標。」
程式管理人員稱只是娛樂功能
BBC報道,化名為「P」的程式管理人員稱,程式提供的功能只作娛樂用途,不涉及暴力。他指沒有人會用程式製作的假裸照來勒索他人,因為裸照的像真度不高。而管理人員亦會檢查用家分享的照片,會在看到未成年人的照片時封鎖用戶。
延伸閱讀:
【港姐2020】參選佳麗疑有裸照曝光 麥淑螢承認曾就事件報警
文章授權轉載自《香港01》
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 小米Tag開箱!拚當平替版AirTag 2 實測4大功能高CP
📢 iPhone Fold不是傳聞「真的生產中」!最終手機渲染圖曝光 果粉好兩難
📢 三星爆有4款新摺疊機!神祕新機型號現身 傳為平價Galaxy Z Fold8 FE
📢 Insta360 Snap手機自拍螢幕開箱!實測磁吸手機主鏡頭取景超讚
📢 iPhone鬧鐘又罷工!苦主看著它跳出來聲音卻不響 2方法解決
📢 安卓跳槽愛瘋「用到懷疑人生」!2功能超難戒 內行反推蘋果最大優勢