据外媒The Verge报道,AlgorithmWatch的研究人员表示,在Facebook的法律威胁下,他们被迫放弃了监测Instagram算法的研究项目。这个来自柏林的研究团队在周五上午发表的一篇文章中公开了这一消息,并引用了该社交平台最近对纽约大学广告观察站的禁令。
“可能还有更多我们不知道的欺凌案例,”该帖子写道。“我们希望,通过站出来,可以让更多的组织将说出他们的经历。”
2020年3月推出的AlgorithmWatch提供了一个浏览器插件,允许用户从他们的Instagram feeds中收集数据,提供关于该平台如何优先处理图片和视频的洞察力。该项目定期公布研究结果,显示算法鼓励显示裸露皮肤的照片,显示人脸的照片比文字截图的排名更高。Facebook对该方法提出异议,但在项目的第一年没有对AlgorithmWatch采取其他行动。
5月,研究人员说,Facebook要求与项目负责人会面,并指控他们违反了平台的服务条款。另一个反对意见是,该项目违反了《通用数据保护条例》(GDPR),因为它收集了未同意参与的用户的数据。
“我们只收集了与Facebook显示给安装插件的志愿者的内容有关的数据,”研究人员在他们的辩护中说。“换句话说,该插件的用户只是访问他们自己的feed,并与我们分享,用于研究目的。”
尽管如此,研究人员最终还是选择了关闭这个项目,因为他们认为如果继续下去,他们将面临来自Facebook公司的法律诉讼。
Facebook的一位代表在接受采访时确认了这次会议,但否认威胁要起诉该项目,并表示该公司愿意找到保护隐私的方法来继续研究工作。
这位代表说:“我们对他们的做法感到担忧,这就是为什么我们多次与他们联系,以便他们能够遵守我们的条款并继续他们的研究,正如我们在发现类似问题时对其他研究团体所做的那样。我们打算继续与独立研究人员合作,但合作方式不会让人们的数据或隐私受到威胁。”
Facebook平台的社会性质使得它很难隔离任何一个用户:即使一个用户选择加入,他们的内容也必然是由其他人的内容组成的,他们很可能没有同意参与研究。自从剑桥分析公司(Cambridge Analytica)丑闻发生后,Facebook对研究项目特别敏感,因为学术研究数据最终被用于商业和政治操纵。
然而,更广泛的模式是令人不安的。管理Facebook和Instagram新闻源的算法非常强大,但人们对其了解甚少,而Facebook的政策使其难以客观地研究。纽约大学广告观察站追踪了该平台上的政治广告,本月早些时候,其研究人员因被指控获取数据而被禁止。11月,该公司对一个名为Friendly的浏览器发出了类似的法律威胁,该浏览器让用户按时间顺序重新排列他们的信息。CrowdTangle是另一个流行的Facebook研究工具,于2016年被该公司收购。
Facebook有一些机制让研究人员直接从该公司收集数据,包括广告库和Social Science One伙伴关系。但AlgorithmWatch表示,其研究的对立性使得这些数据本质上是不可信的。
“研究人员不能依赖Facebook提供的数据,因为该公司不可信,”研究人员说。“没有理由相信Facebook会提供可用的数据,如果研究人员用该公司的数据取代他们独立收集的数据。”