AI摘要
文章摘要整理:
英國政府計畫要求蘋果和Google實施成人身份驗證,以防止兒童接觸裸露內容。此舉引發隱私問題的討論,因為監控用戶內容可能侵犯個人隱私。蘋果已在iMessage中提供部分防護機制,警告兒童接收敏感影像。
英國政府現在似乎更重視「兒童防護」的問題了!最新報告指出,英國政府計畫要求蘋果 (Apple)與Google 用戶完成成人身分驗證 ,否則應禁止並封鎖拍攝與分享裸露 照片 (裸照 )的功能,但如此一來,又牽涉到「使用者隱私 」的問題,引起熱議。
需通過年齡 驗證
據9to5mac報導,外界對於「由APP商店而非個別開發者負責使用者年齡驗證」的呼聲持續升高,像是在美國有一項新的「App Store 問責法案」提案,強調用戶不必在每次下載有年齡限制的APP時,都向不同開發者反覆證明年齡,而是只需一次向蘋果或進行驗證,之後由平台方依據年齡自動管控可使用的 APP。
據《金融時報》報導,英國政府準備要求蘋果和Google採取更進一步的措施,保護兒童免於接觸裸露影像。英國內政部希望這兩家導入裸露內容偵測演算法,若用戶未驗證為成年人,將無法拍攝或分享涉及生殖器的影像,且也希望未來的iOS或Android作業系統能在使用者完成成人驗證(如生物辨識或官方身分證件)之前,可以全面阻止任何裸露內容在螢幕上顯示。
牽涉個人隱私
不過這項規定似乎牽涉到個人隱私的問題,因所有偵測都在裝置端完成,要求蘋果和Google「監控」用戶APP觀看的內容,從隱私角度來看幾乎難以被接受。
若只是將「敏感內容警告」預設開啟,仍屬可接受的折衷方案,因為成年人仍可自行關閉,但要求要出示個人相關身分證件,才能完整使用自己的裝置,似乎又太過於極端,也考驗「兒童保護」與「使用者隱私」的拿捏度。
蘋果針對兒童防護怎麼做?
事實上,蘋果已在iMessage中提供部分防護機制。若iCloud家庭共享中的兒童帳號 收到具性暗示的影像,照片會先被模糊處理並顯示警告訊息;若孩子選擇查看,系統會跳出說明視窗,解釋為何該內容被視為敏感,並詢問是否仍要觀看,同時也會提醒該家庭群組的管理者(家長)將收到通知。
