IT之家 9 月 6 日消息 因遭到大量用戶以及部分國家和地區(qū)反對,蘋果近日宣布暫緩?fù)瞥?CSAM 兒童性虐待照片掃描功能,表示公司會在未來的幾個月收集意見,并改進(jìn)這項(xiàng)功能。據(jù)外媒 Wccftech 消息,電子前沿基金會 EFF 于 9 月 3 日發(fā)表文章,表示蘋果 CSAM 檢測功能會給 iPhone 用戶的隱私和安全造成威脅。
▲ 圖片來自電子前沿基金會
EFF 對蘋果暫緩?fù)瞥鲈摴δ?、傾聽意見的做法表示高興,但是希望該公司能夠更進(jìn)一步,不僅僅是傾聽意見,而是完全放棄這項(xiàng)計(jì)劃。該基金會表示,這一功能的推出,還有可能將原本遭受傷害的兒童置于更大的危險之中。
官方表示,全球有 90 多個組織向蘋果呼吁,不要實(shí)施 CSAM 計(jì)劃。上周,EFF 向蘋果發(fā)出請?jiān)笗?,已?jīng)收集到了超過 2.5 萬個簽名。
IT之家了解到,今年 8 月德國有關(guān)部門給蘋果 CEO 庫克,希望蘋果重新考慮其 CSAM 計(jì)劃。蘋果公司對這一功能解釋稱,不會掃描分析每個 iPhone 上的照片,而只是對 iCloud 上的照片特征數(shù)據(jù)比對。自從蘋果公司發(fā)表暫緩?fù)瞥?CSAM 的聲明之后,截至發(fā)稿還沒有更新的回應(yīng),該功能是否會正式推出,還是未知數(shù)。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。