维基百科是历史上最成功的合作项目之一。它是有史以来最大的百科全书,由数以万计的志愿者(即维基人)编写和编辑。尽管任何人都可以编辑任何页面,但全球数以百万计的用户仍然依赖它作为第一信息来源,以及进行事实核查和深入研究。由于维基百科完全依赖于其志愿编辑者的努力,其成功可能尤其受到有毒言论的影响。
伊万-斯米尔诺夫(Ivan Smirnov)及其同事研究了维基百科网站的志愿者工作如何受到与每个编辑器相连的 "用户对话 "页面中的恶意评论的影响。分析了维基百科六个最活跃语言版本中 850 万编辑在用户对话页面上发表的全部 5700 万条评论,以研究毒性对编辑行为的潜在影响。结果发现,有毒评论始终与编辑者活跃度降低有关,短期内相当于每个用户减少了 0.5-2 个活跃天数。考虑到维基百科的活跃贡献者人数,这相当于损失了多人年的生产力。
透视 API 项目设计的毒性检测算法识别出了有毒评论。对过去 20 年维基百科最活跃的六种语言版本(英语、德语、法语、西班牙语、意大利语和俄语)的编辑者在用户对话页面上发表的所有 5700 万条评论进行的分析表明,用户对话页面上的有毒评论平均会导致编辑者的活动减少。当有毒评论针对新人时,这种影响尤为明显。
当用户第一次或第二次向维基百科投稿时,其用户页面上出现了有毒评论,与没有收到有毒评论的用户相比,用户继续投稿的可能性降低了 1.8 倍。总体而言,毒性可能导致维基百科英文版损失了 265 人年的志愿工作,并可能导致网站贡献者基数的增长减少。作者表示,毒性还可能导致维基百科用户中持续缺乏性别和种族多样性。
从长远来看,有毒评论的影响可能更大,因为它们会显著增加编辑者完全离开项目的风险。通过使用基于代理的模型,研究人员证明了维基百科上的毒性攻击有可能阻碍整个项目的进展,凸显了在维基百科等协作平台上减少毒性言论以确保其持续成功的重要性。