英國廣播公司(BBC)10月21日報道,荷蘭情報企業Sensity公開一份新報告,指出有人工智慧(AI)程式讓網民製作他人的假裸照,再在網上分享,估計在2019年7月至2020年7月期間,大約有10.5萬名女性受害。報告提到該技術是利用「深偽技術機械人」(deepfake bot)。
網民只需要將一名女性的照片,可以通過社交程式Telegram把照片傳送予人工智慧程式,然後就可得到一張假的裸照。程式會繪製照片主角沒穿衣服的形象,助用戶為她們一鍵「脫衣」。他們可下載並分享照片。惟程式的功能只對女性的照片有效。
用家可以選擇付款來移除假裸照上的水印,還可比不付費的用家更快取得照片。
部分受害人未成年
Sensity的調查發現,部分假裸照中的主角看似未成年。以往曾有名人及政客成為假裸照的受害者。惟調查指,63%涉事Telegram人工智慧程式的用家稱,他們主要地有意為在現實生活中認識的女性「脫衣」。
調查員找到的大部分假裸照,其原圖似乎是從社交網或私人通訊的途徑取得,受害者可能不知道此事。Sensity總裁帕特里尼(Giorgio Patrini )表示:「任何人只要擁有社交媒體帳號及有公開的照片,就足以成為目標。」
程式管理人員稱只是娛樂功能
BBC報道,化名為「P」的程式管理人員稱,程式提供的功能只作娛樂用途,不涉及暴力。他指沒有人會用程式製作的假裸照來勒索他人,因為裸照的像真度不高。而管理人員亦會檢查用家分享的照片,會在看到未成年人的照片時封鎖用戶。
延伸閱讀:
【港姐2020】參選佳麗疑有裸照曝光 麥淑螢承認曾就事件報警
文章授權轉載自《香港01》