生成式人工智能具有巨大的滥用潜力,人们不难想到的是诈骗和对金融系统的网络攻击。然而,一项新的研究表明,滥用的主要类别是用虚假内容影响政治舆论。这在过去的竞选活动中已经造成了问题。我们可以预见,这种情况在本轮选举中将会更加普遍。
Google DeepMind 的一项新研究表明,人工智能生成政治内容的可能性远远大于网络攻击。DeepMind 的结论基于对 2023 年 1 月至 2024 年 3 月期间报告的 GenAI 滥用案例的分析。事实上,去年一段关于乔-拜登(Joe Biden)的视频曾在网络上疯传,尽管它被宣布为深度伪造内容。
随着政治竞选季的升温,我们很可能会看到更多这种形式的操纵案例。研究发现,塑造公众舆论是利用 GenAI 能力的最常见目标,占所有报告案例的 27%。恶意行为者可以采用多种策略来歪曲公众对政治现实的看法,包括冒充公众人物、创建伪造媒体以及使用合成数字角色来模拟支持或反对某项事业的草根支持--也就是所谓的"stroturfing"。
不法分子可以轻而易举地篡改合法视频,让选举候选人显得明显衰老,不适合担任领导职务。熟练的人工智能艺术家可以从头开始编造一段视频,将对手置于不利的位置,但这样做更加复杂。
报告指出,政治候选人及其支持者不公开地使用人工智能生成的媒体来塑造积极的公众形象,这是一种新出现的趋势,尽管并不那么普遍。其中一个例子是费城一名警长利用人工智能生成技术为其竞选网站编造正面新闻。
政界人士也使用生成式人工智能进行超目标政治宣传,例如高保真地模拟政治家的声音,用他们的母语与选民沟通,或者部署人工智能驱动的竞选抢答工具,就关键问题与选民进行有针对性的对话。
这些策略可能听起来似曾相识,因为早在人工智能出现之前,政治竞选活动就已经使用过这些策略了。不同的是,最近人工智能模型的快速发展为这些古老的策略赋予了新的力量,并使其使用更加民主化。