外媒 VentureBeat 报道称,在 17 号下午的一篇博客文章中,Facebook 详细介绍了该公司是如何打击 FB 和 Instagram 平台上的极端、暴恐和仇恨组织的。据其所述,近期的大部分成功行动,都是通过自动化技术实现的。此外,该公司还有一支 350 人规模的反恐团队,其业务已扩展到防止宣扬或参与暴力的人对现实世界造成伤害。
(图自:FB,via VentureBeat)
据悉,这些信息是 Facebook 赶在国会听证前披露的。其讨论了包括 Facebook、Google 和 Twitter 等在内的科技企业,是如何对其所在社区的暴力内容展开管控的。
Facebook 声称,其借助机器学习算法,来帮助审核团队根据用户的行为、对恐怖团体展开广泛的监测,主要是通过识别与一只不良资料副本相匹配的内容来评估其是否可能已违反相关政策。
起初,这项技术意在对特定暴力团体的内容展开清理,其在 2 年内删除了超过 2600 万帖、且其中有 99% 是被系统主动识别出来的。
不过从 2018 年中期开始,Facebook 开始将人工智能技术的使用范围,拓展到了更广泛的危险组织,并顺利清理了 200 个白人至上主义者群体、以及向这些组织表示赞扬和支持的内容。
Facebook 表示,该公司将与英美政府和执法机构合作,在未来的枪械训练计划中,进一步提升计算机视觉算法的识别精度。今年 3 月份在新西兰发生的大规模枪击事件,已经给行业敲响了警钟。
此外,该公司计划扩大另一项计划,将那些在 Facebook 上搜索与白人至上相关的条款的人、以及专注于帮助人们离开仇恨团体的资源联系起来。
最后,Facebook 表示其制定了“恐怖组织” 的定义,并将以此来对相关内容展开行动决策。