向《华尔街日报》泄露大量Facebook文件的举报人弗朗西斯·豪根(Frances Haugen)周日在《60分钟》节目中公开了这个世界上最强大的社交媒体平台的内部运作情况。豪根在NBC披露了她的身份,描述了一个致力于产品优化的公司接受了放大仇恨言论的算法。
豪根告诉《60分钟》主持人斯科特-佩利:"它用我们的安全来换取利润。"
根据已经删除的LinkedIn资料,豪根是Facebook的产品经理,被分配到公民诚信小组。在该小组解散后,她于2021年选择离开该公司。她说,她不"相信他们愿意投入真正需要投入的东西,以保持Facebook的危险性,因为对公众有利的事情和对Facebook有利的事情之间......存在着冲突。"
因此,她向证券交易委员会泄露了一份内部研究报告,希望能推动对该公司的更好监管。她指出,她曾在许多公司工作过,包括Google和Pinterest,但"在Facebook的情况显然更糟",因为该公司希望将其利润置于用户的福利之上。
"对公众有利的东西和对Facebook有利的东西之间存在冲突,Facebook一次又一次地选择为自己的利益进行优化--比如赚更多的钱。"
虽然该公司一再声称它正在帮助阻止仇恨言论,至少是在其自己的产品上,但豪根泄露的一份Facebook内部文件说:"我们估计,尽管我们在这方面是世界上最好的,但我们可能只对Facebook上3-5%的仇恨和~0.6%的V&I[暴力和煽动]采取行动。"错误信息、毒性和暴力内容在转发中极为普遍",一份内部文件说。
另一份文件甚至更加直白。"我们有来自各种渠道的证据表明,Facebook和App家族中的仇恨言论、分裂性政治言论和错误信息正在影响世界各地的社会。"
豪根声称,问题的根源在于2018年推出的算法,这些算法管理着你在平台上看到的内容。据她说,这些算法是为了推动参与,而该公司发现,最好的参与是在用户中灌输恐惧和仇恨的那种。"激发人们的愤怒比激发其他情绪要容易得多,"哈根说。
当时,马克·扎克伯格将算法的变化说成是积极的,他曾表示"我们感到有责任确保我们的服务不仅仅是使用上的乐趣,而且对人们的福祉也有好处。"
但是,根据《华尔街日报》对豪根的担忧的报道,其结果是急剧转向愤怒和仇恨,其引用的一份内部备忘录说:"错误的信息、毒性和暴力内容在转发中极为普遍",评估了这一变化的影响。
《华尔街日报》于9月开始以"Facebook档案"的名义公布其从缓存中获得的发现。有一篇报道称,Facebook有研究证明Instagram伤害了少女,这让国会对此开始关注并引发了听证会的召开。在听证会之前,Facebook试图在一篇博客文章中改变说法,其中引用了《纽约时报》报道中提到的两份报告。
在《60分钟》报道之前,Facebook试图以不同的形式进行同样的转述。周日下午,Facebook全球事务副总裁尼克·克莱格(Nick Clegg)出现在美国有线电视新闻网(CNN)的《可靠消息》(Reliable Sources)节目中,为该公司辩护,此时距豪根出场仅数小时。
"我认为这很可笑,"克莱格在谈到社交媒体应对1月6日的骚乱负责的指控时说。"我认为这给了人们错误的安慰,认为美国的政治两极化问题一定有一个技术,或者技术上的解释。"
豪根在采访结束时呼吁对社交网络进行更广泛的监管,而Facebook本身也以更有限的形式呼吁这样做。她定于周二出席参议院商业小组的会议。