由罗格斯大学教师共同撰写并发表在《自然》杂志上的一项研究显示,用户的偏好和政治信仰,而不是算法建议,是Google搜索提供的偏袒一方和不可靠新闻的最大驱动力。这项研究解决了一个长期存在的问题,即数字算法可能会通过提供符合用户先入为主的观念和态度的信息来放大用户的偏见。
然而,研究人员发现,显示给民主党人和共和党人的搜索结果的意识形态差异很小。当个人选择与哪些搜索结果互动或独立访问哪些网站时,意识形态差异就会显现出来。
结果表明,显示给用户的低质量内容比例也是如此。尽管某些群体,尤其是自称为"坚定的共和党人"的老年参与者,更有可能接触到低质量的内容,但这些内容的数量在党派之间并无明显差异。
这项研究的共同作者、罗格斯传播与信息学院传播学副教授凯瑟琳-奥格尼亚诺娃(Katherine Ognyanova)说,Google的算法有时确实会产生两极分化和潜在危险的结果。
"但我们的研究结果表明,Google在具有不同政治观点的用户中平均浮现了这些内容,"奥格尼亚诺娃说。"就人们参与这些网站的程度而言,这在很大程度上是基于个人的政治观点"。
尽管算法在人们消费新闻的过程中发挥着至关重要的作用,但很少有研究关注网络搜索--对曝光率(定义为用户在搜索结果中看到的链接)、关注度(人们选择访问的搜索结果中的链接)和参与度(用户在浏览网页时访问的所有网站)进行比较的研究就更少了。
挑战之一是衡量用户活动。追踪网站访问量需要进入用户的电脑,而研究人员通常依赖于更多的理论方法来推测算法如何影响两极分化或将人们推向政治极端的"过滤泡沫"和"回声室"。
为了填补这些知识空白,罗格斯大学、斯坦福大学和东北大学的研究人员开展了一项两波研究,将调查结果与从定制的浏览器扩展程序中收集到的实证数据进行配对,以测量 2018 年和 2020 年美国大选期间网络内容的曝光度和参与度。
研究人员招募了 1021 名参与者,让他们自愿安装 Chrome 浏览器和Firefox浏览器的扩展软件。该软件记录了Google搜索结果的网址以及Google和浏览器的历史记录,为研究人员提供了用户参与内容和参与时间的精确信息。
参与者还填写了一份调查问卷,并按照从"坚定的民主党人"到"坚定的共和党人"的七分标准自我报告了他们的政治认同。
两次研究的结果表明,参与者的政治认同对他们在Google搜索中接触到的党派新闻和不可靠新闻的数量几乎没有影响。相比之下,政治认同与参与极化内容之间的关系却很明显。
Google、Facebook 和 Twitter 等平台是技术黑盒: 研究人员知道哪些信息被输入,也能测量哪些信息被输出,但策划结果的算法是专有的,很少受到公众监督。正因为如此,许多人指责这些平台的技术系统地让用户接触到符合并强化个人信仰的内容,从而制造了回声室和过滤泡沫。
奥格尼亚诺娃说,研究结果描绘了一幅更细致入微的搜索行为图景。
她说:"这并不能让Google等平台逍遥法外。他们仍在向人们展示偏袒一方、不可靠的信息。但我们的研究强调,内容消费者才是主导者。"