据外媒CNET报道,Facebook多年来一直致力于开发用于防止和消除其应用程序中的复仇色情内容的工具,但显然并没有阻止不良行为者尝试共享这些图像。 根据NBC News.周一的报道,还拥有流行应用Instagram、Messenger和WhatsApp的Facebook每月必须评估约50万份复仇色情报告。
全球最大的社交网络Facebook今年早些时候推出了可以检测复仇色情内容的人工智能工具,可以在用户举报之前发现复仇色情(也称为非自愿的亲密图片)。2017年,该公司还启动了一项试点计划,该计划允许用户向Facebook提交私密图片, 以防止它们在社交网络上共享。
然而,Facebook产品政策研究部负责人Radha Plumb告诉NBC News,对该试点项目的初步解释还不够清楚,在获得负面反馈后,该公司于2018年启动了一项研究计划,以探索如何更好地防止复仇色情并支持受害者。
Plumb表示:“在听到分享您的图片的经历是多么可怕的过程时,产品团队的真正动机是试图弄清楚我们能做些比仅仅回应报告更好的事情。”
据报道,Facebook现在拥有一个由25人组成的团队,其中不包括内容监管员,他们专注于防止未经许可就对私密照片和视频进行共享。
Facebook没有立即回应置评请求。