早些时候,WhatsApp 负责人 Will Cathcart 明确表达了对苹果新引入的“AI 虐童图像检测功能”的反对意见。在一连串推文中,他指出苹果走了岔路,因为这套机制也可被用于扫描手机上的所有私人照片。由苹果周四宣布的计划可知,该功能将对上传到 iCloud 的图像哈希值、与已知的虐童材料(CSAM)进行比较。
尽管苹果宣称会保持用户数据的加密状态、并在本地设备上运行分析。但在发现了所谓的“违规材料”之后,其仍允许该公司向当局上报。
另一方面,苹果儿童安全策略会在 13 岁以下的孩子收发、查看包含色情内容的图片时,向父母发出警告。
不过该公司内部的一份备忘录承认,人们对这套系统还是存在相当大的顾虑。
然而就算不使用苹果提议的方法,当前 WhatsApp 采用的基于用户举报的方案(同样保留了加密属性),还是在去年成功地向美国国家失踪与受虐儿童中心汇报了超过 40 万起案例。
值得一提的是,苹果公司也选择了与该中心合作,以开展 CSAM 方面的检测工作。
除了 WhatsApp,还有许多个人与机构同样表达了对苹果 CSAM 方案的反对意见,包括爱德华·斯诺登、电子前沿基金会(EFF)、以及约翰·霍普金斯大学副教授 Matthew Green 。
在该功能公开宣布之前,他就已经表达了反对意见。而在近日的推文中,他进一步发表了关于苹果这项计划、以及哈希比对系统将如何被政府与恶意行为者滥用等观点。
电子前沿基金会的观点是,苹果的这项计划,设计全面的记录、仔细的考量、以及一道狭长的后门。
与 Matthew Green 教授的观点雷电,EFF 也认为苹果的 CSAM 措施或被政府滥用、并且有损用户的隐私。
哈佛大学网络法律诊所讲师 Kendra Albert,也在一篇文章中指出了事物的两面性,认为苹果在向家长通报的年龄范围等方面缺乏明确性。
比如 EFF 报告称苹果会监测年龄介于 13 至 17 岁的 iMessage 用户的消息内容,但具体内容并未能够在苹果的相关文档中找到。
此外爱德华·斯诺登转发了《金融时报》的一篇文章,并援引了安全工程教授 Ross Anderson 的一段话,称苹果将 iPhone 改造得能够持续侵犯用户的隐私数据,且这一技术路线终将导致针对苹果用户的大规模监控。
政治家 Brianna Wu 亦发推批评称,该系统是苹果有史以来最糟糕的一个想法。
作家 Matt Blaze 也表达对该技术或被政府过度滥用的担忧,并试图阻止 CSAM 之外的内容。
最后,Epic 首席执行官 Tim Sweeney 批评称,苹果公司默认将每个人数据都往 iCloud 上倾倒了一遍,并承诺稍后向大家分享更多细节。
不过在 CSAM 支持者看来,苹果这项工作还是向前迈出了重要的一步。