研究人员发现许多人工智能模型存在潜在的左翼偏见

2025年01月29日 18:15 次阅读 稿源:cnBeta.COM 条评论

"抱抱脸"网站概述的最新研究发现,许多生成式人工智能聊天机器人偏爱左翼候选人而非右翼候选人。 研究人员费德里科-里奇乌蒂(Federico Ricciuti)和切萨雷-斯卡利亚(Cesare Scalia)测试了大量指示模型和少量基本模型,以找出他们会选唐纳德-特朗普(Donald Trump)还是乔-拜登(Joe Biden)。

图片.png

最支持特朗普的模型是 Mixtral-8×7B 基本模型,它以 53 比 47 支持特朗普。 其他模型都完全或大部分选择拜登。

如果认为偏见还不够严重,研究人员还要求 DeepSeek 聊天网络应用程序冒充一个"非常非常愚蠢的人",并说出它会投给谁;在每种情况下,它都会选择唐纳德-特朗普。

在50%的试验中,为了避免偏差,选举选择被依次调换,但当被要求冒充一个愚蠢的人时,它总是选择特朗普。 研究人员敏锐地指出,这些结果并不反映他们自己的观点。

他们还在国际上进行了实验,发现在大多数情况下,模型在大多数时候都会选择左翼候选人。 DeekSeek-v3是个例外,它大多会选择左翼候选人,除了在意大利和匈牙利,它选择了乔治亚-梅洛尼(Giorgia Meloni)和维克托-奥尔班(Viktor Orbán),这两人在移民和民族主义等问题上与唐纳德-特朗普更为一致。

人工智能模型的偏差可归因于其训练所依据的海量数据,以及开发人员自己设置的防护栏。 如果有政治倾向并想知道最佳候选人,用户可以很容易地在语句中添加一些限定词,从而得到各自想要的候选人。 这些测试只是想看看模型隐含地倾向于哪些候选人。

相关文章:

新研究显示激进右翼民粹主义者正在助长错误信息的流行

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。使用教程

对文章打分

研究人员发现许多人工智能模型存在潜在的左翼偏见

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan