每日消费电子观察
沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划 https://www.ithome.com/0/659/486.htm
苹果拒绝重启检测上报虐童内容功能

苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。

苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。

Heat Initiative 对苹果决定终止该功能感到失望。
https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/ Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy
 
 
Back to Top