滑铁卢大学研究人员的一项新研究发现,人们比预期更难区分谁是真人,谁是人工生成的。
滑铁卢大学的研究为 260 名参与者提供了 20 张没有标签的图片:其中 10 幅是通过Google搜索获得的真人图片,另外 10 幅则是由稳定扩散或 DALL-E 这两种常用的人工智能程序生成的图片。
研究人员要求参与者给每张图片贴上真实或人工智能生成的标签,并解释他们做出这一决定的原因。只有 61% 的参与者能分辨出人工智能生成的人和真实的人,远远低于研究人员预期的 85% 临界值。
研究中使用的三张人工智能生成的图片。图片来源:滑铁卢大学
误导性指标与人工智能的快速发展
滑铁卢大学计算机科学博士候选人、本研究的第一作者 Andreea Pocol 说:"人们并不像自己认为的那样善于区分。"
参与者在寻找人工智能生成的内容时,会注意手指、牙齿和眼睛等细节,将其作为可能的指标,但他们的评估并不总是正确的。
Pocol 指出,这项研究的性质允许参与者长时间仔细观察照片,而大多数互联网用户只是顺便看看图片,不会注意到这些提示。
人工智能技术的发展速度极快,这使得理解人工智能生成的图像可能带来的恶意或邪恶行为变得尤为困难。学术研究和立法的步伐往往跟不上:自 2022 年底研究开始以来,人工智能生成的图像变得更加逼真。
人工智能生成虚假信息的威胁
作为一种政治和文化工具时,这些人工智能生成的图像尤其具有威胁性,任何用户都可以通过它制作出公众人物处于尴尬或危险境地的假图像。
Pocol 说:"虚假信息并不新鲜,但虚假信息的工具一直在不断变化和发展。可能到了这样一个地步,无论人们接受过怎样的培训,他们仍然难以区分真实图像和假图像。这就是为什么我们需要开发工具来识别和应对这种情况。这就像是一场新的人工智能军备竞赛。"
这项名为"眼见为实"的研究发表在《计算机图形学进展》(Advanced Computer Graphics)杂志上:Deepfakes, AI-Generated Humans, and Other Nonveridical Media: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media》一文发表在《计算机图形学进展》(Advances in Computer Graphics)杂志上。
编译自:ScitechDaily