几个月来,《华尔街日报》详细报道了 Instagram 和 Facebook 如何向用户提供与儿童有关的不当和性内容。今年 6 月,一篇报道详细描述了 Instagram 如何将买卖儿童性虐待材料(CSAM)的账户网络连接起来,并通过其推荐算法将这些账户相互引向对方。今天公布的一项后续调查显示,这一问题如何延伸到了 Facebook 群组,那里有一个恋童癖账户和群组的生态系统,有些群组的成员多达 80 万。
在这两个案例中,Meta 的推荐系统通过 Facebook 的"你可能感兴趣的群组"或 Instagram 上的自动填充标签等功能,让滥用账号互相找到对方。Meta 今天表示,它将对"可疑"成人账户之间的互动方式进行限制:在 Instagram 上,这些账户将不能互相关注,不能被推荐,其他"可疑"账户也不能看到这些账户的评论。
Meta 还表示,它已经扩大了与儿童安全相关的术语、短语和表情符号列表,并开始使用机器学习来检测不同搜索词之间的联系。
就在美国和欧盟监管机构就 Meta 如何保证平台上儿童安全问题向 Meta 施压的同时,Meta 也发布了上述报告,并做出了相应的儿童安全调整。Meta 首席执行官马克-扎克伯格(Mark Zuckerberg)将与其他几位大科技公司高管一起,于 2024 年 1 月在参议院就网络儿童剥削问题作证。11 月,欧盟监管机构给 Meta 规定了提供有关其如何保护未成年人的信息的最后期限(今天到期);他们今天又向 Meta 发出了新的要求,特别指出"Instagram 上流传的自创儿童性虐待材料(SG-CSAM)"以及该平台的推荐系统。
11 月底,约会应用公司 Bumble 和 Match 在《华尔街日报》报道后暂停了 Instagram 上的广告。这两家公司的广告出现在露骨内容和对儿童进行性攻击的 Reels 视频旁边。