Google和斯坦福大学的研究人员已经证明,只需与人工智能模型进行两小时的对话,就能创造出惊人准确的个人人格复制品。 该研究报告于 11 月 15 日发表在预印本数据库 arXiv 上,介绍了"模拟代理"--一种旨在精确模仿人类行为的人工智能模型。
这项研究由斯坦福大学计算机科学博士生 Joon Sung Park 领导,对 1052 名参与者进行了深入访谈。 这些访谈涉及个人故事、价值观和对社会问题的看法,形成了用于训练人工智能生成模型的数据集。 参与访谈者的年龄、性别、种族、地区、教育程度和政治意识形态都有意保持多样化,以确保人类经历的广泛代表性。
为了评估准确性,参与者完成了两轮性格测试、社会调查和逻辑游戏,并在间隔两周后重复这一过程。 然后,人工智能复制品也进行了同样的测试,与人类对应物的反应如出一辙,准确率达到了惊人的85%。
帕克告诉《麻省理工科技评论》说:"如果你能让一群小'你'跑来跑去,并真正做出你会做出的决定--我认为,这最终就是未来。"
研究人员设想,这些人工智能模型可以在受控环境中模拟人类行为,从而彻底改变研究工作。 其应用范围可以从评估公共卫生政策到衡量对社会事件或产品发布的反应。 他们认为,这种模拟提供了一种测试干预措施和理论的方法,而无需考虑使用人类参与者在伦理和后勤方面的复杂性。
然而,我们应该对这些研究结果持健康的怀疑态度。 虽然人工智能克隆体在复制个性调查和社会态度方面表现出色,但在预测互动经济决策游戏中的行为方面却明显不够准确。 这种差异凸显了人工智能在执行需要理解复杂社会动态和上下文细微差别的任务时所面临的挑战。
用于测试人工智能代理准确性的评估方法也相对初级。 社会总体调查和五大性格特征评估等工具虽然是社会科学研究的标准工具,但可能无法完全捕捉到人类性格和行为的复杂层面。
伦理问题使该技术的影响更加复杂。 在人工智能和"深度伪造"技术已被用于操纵和欺骗的时代,引入高度个性化的人工智能复制品引起了人们的警惕。 这种工具有可能被武器化,扩大隐私和信任的风险。
麻省理工学院斯隆管理学院(MIT Sloan School of Management)副教授约翰-霍顿(John Horton)指出,尽管有这些保留意见,但这项研究为未来研究带来了令人信服的可能性。他说:"这篇论文展示了如何实现一种混合:使用真人生成角色,然后以真人无法实现的方式通过编程/模拟使用这些角色。"
访谈过程在捕捉个体细微差别方面的效率尤其引人注目。 Park 借鉴自己在播客采访中的经验,强调了两小时的谈话所能提供的深刻见解。
这一创新引起了已经在开发数字孪生技术的公司的兴趣。 Tavus公司(一家专门从事利用客户数据创建人工智能复制品的公司)首席执行官哈桑-拉扎(Hassaan Raza)对这种简化方法表示了极大的热情。"今天跟人工智能面试官谈 30 分钟,明天再谈 30 分钟,怎么样? 然后我们用它来构建你的数字孪生体。"