在周二发表的一篇公司博文中,Meta 公司全球政策主管乔尔-卡普兰(Joel Kaplan)称其人工智能对有关枪击事件的问题的回应是"不幸的"。他说,Meta AI 最初的程序设置是不回答有关暗杀未遂的问题,但在人们开始注意到这一点后,公司取消了这一限制。他还承认,"在少数情况下,Meta AI 继续提供不正确的答案,包括有时断言事件没有发生--我们正在迅速努力解决这个问题"。
"这类反应被称为幻觉,这是我们在所有生成式人工智能系统中看到的一个全行业问题,也是人工智能如何处理实时事件的一个持续挑战。"负责 Meta 游说工作的卡普兰继续说道。"与所有生成式人工智能系统一样,模型可能会返回不准确或不恰当的输出结果,我们将继续解决这些问题,并随着它们的发展和更多人分享反馈意见而改进这些功能。"
陷入困境的不仅仅是 Meta:周二,Google也不得不驳斥有关其搜索自动完成功能审查有关暗杀企图的结果的说法。
"又来了,又一次试图操纵选举!!"特朗普在"真相社交"网站上发文称。"追击Meta和Google"。
自从 ChatGPT 横空出世以来,科技行业一直在努力解决如何限制生成式人工智能的虚假叙述的倾向。一些公司,如 Meta,试图用高质量的数据和实时搜索结果作为聊天机器人的基础,以此来弥补幻觉。但正如这个特殊的例子所显示的那样,大型语言模型的固有功能--胡编乱造仍然难以克服。