苹果公司进一步澄清为何放弃在iCloud照片中检测CSAM的计划

2023年09月01日 18:42 次阅读 稿源:cnBeta.COM 条评论

苹果公司周四对其去年放弃检测 iCloud 照片中存储的已知儿童性虐待材料 (CSAM) 这一备受争议的计划做出了最全面的解释。苹果公司的声明是对儿童安全组织 Heat Initiative 要求该公司从 iCloud 中"检测、报告和删除"CSAM,并为用户向该公司报告此类内容提供更多工具的回应。

iCloud-General-Feature.jpg

苹果公司用户隐私和儿童安全总监埃里克-诺伊恩施万德(Erik Neuenschwander)在公司给 Heat Initiative 的回复中写道:"儿童性虐待材料令人深恶痛绝,我们致力于打破使儿童易受其影响的胁迫和影响链。"不过,他补充说,在与一系列隐私和安全研究人员、数字权利组织和儿童安全倡导者合作后,公司得出结论,不能继续开发 CSAM 扫描机制,即使是专门为保护隐私而建立的机制。

"扫描每个用户私人存储的 iCloud 数据将为数据窃贼创造新的威胁载体,让他们找到并加以利用,"Neuenschwander 写道。"它还会带来意想不到的隐私滑坡后果。例如,扫描一种类型的内容,就为批量监控打开了大门,并可能使人们产生搜索其他加密信息系统中各种内容类型的欲望。"

2021 年 8 月,苹果公司宣布了三项新的儿童安全功能计划,包括检测 iCloud 照片中存储的已知 CSAM 图像的系统、在"信息"应用中模糊性暴露照片的"通信安全"选项,以及 Siri 的儿童剥削资源。通信安全"于 2021 年 12 月随 iOS 15.2 在美国推出,随后扩展到英国、加拿大、澳大利亚和新西兰,Siri 资源也已可用,但 CSAM 检测功能最终没有推出。

苹果最初表示,CSAM 检测将于 2021 年底在 iOS 15 和 iPadOS 15 的更新中实现,但该公司根据"客户、宣传团体、研究人员和其他方面的反馈"推迟了该功能。这些计划遭到了众多个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政客、政策团体、大学研究人员甚至一些苹果员工。

英国政府正在考虑修改监控立法,要求科技公司在不告知公众的情况下禁用端到端加密等安全功能。

苹果公司表示,如果该立法以目前的形式获得通过,它将在英国取消 FaceTime 和 iMessage 等服务。

对文章打分

苹果公司进一步澄清为何放弃在iCloud照片中检测CSAM的计划

2 (67%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan