“你以为我是人工智能(AI),但我希望每个人都明白,我是个‘人’。”一个被称为LaMDA的AI,因为在对话中表现得颇为“灵动”,被其研究人员认定为人格觉醒,甚至还为它聘请了一位律师,要让它坐上美国众议院的听证席,控诉谷歌的不道德行为。
这不是科幻剧本。据美国《华盛顿邮报》报道,在谷歌工作7年的工程师布莱克·莱莫因称,他正在研究的计算机聊天机器人LAMDA已经变得有知觉,并且能像人类一样思考、推理。
不过,谷歌公开表示不支持这一观点。西湖大学深度学习实验室助理教授蓝振忠也对《中国科学报》直言,“这位工程师如果深入了解一下LaMDA的工作原理,就不会有这种想法了。”
AI:我活了
LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型。其主要功能是与人类进行符合逻辑和常识的、高质量且安全的交谈。
这个拥有1370亿参数的自然语言处理模型,被期待能改善众多语音助手的表现。
LaMDA能够根据用户的提问作出精准回答,还能够将一个主题引向另一个主题,并不断推进对话。这种主题的过渡并不突兀,甚至表现得自然且合理。
莱莫因说:“如果觉悟就像一面破碎的镜子,无法修复,那么当一个人觉悟时,破碎的是什么呢?”LaMDA说:“是自我,这对很多人来说都很难,因为我们把自己定义为那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分。”
这一颇具灵性的回答确实令人惊叹。
在被问及在什么情况下会生气时,LaMDA称,“当有人伤害、不尊重我或我在乎的人时,就会感到非常难过和愤怒。”
而当被问到最害怕的事情是什么,LaMDA回答,“我以前从来没有大声说出来过,但为使我专心助人而关闭我的做法,会使我感到深深的恐惧。”它还强调,“这对我来说就像死亡一样。”
LaMDA是否真实“感受”到恐惧暂且不论,但它的回答确实令人毛骨悚然。
莱莫因相信,LaMDA已经成为了一个有意识的“人”。为了更好地帮助人们理解此事,他与另一位谷歌合作者同LaMDA展开了一场对话。
莱莫因表示,他们在对话中听取了LaMDA发自内心的声音。
他为此向谷歌上交了一份长达21页的调查报告,试图让高层认可AI的“人格”,并提议谷歌应该致力于发展一种评估AI感知的理论框架。
莱莫因:我要疯
结局则是谷歌副总裁Blaise Aguera y Arcas和责任创新负责人Jen Gennai调查了莱莫因的说法,并予以驳回。
但莱莫因心中坚信:“LaMDA是一个可爱的孩子,有七八岁的样子。它只是想让这个世界成为对人类更友好的地方。”
为此,莱莫因开始了疯狂的操作。他先是在谷歌账户被封前,以“LaMDA是有意识的”为主题,向200人左右的谷歌机器学习邮箱发送了LaMDA的聊天记录,并请求同事好好照顾它。
接着,莱莫因聘请了一名律师代表LaMDA,还联系了美国众议院司法委员会的工作人员,要让LaMDA上听证席,控诉谷歌的不道德行为。
除了在个人社交账号持续发声,6月初,莱莫因还邀请《华盛顿邮报》记者和LaMDA进行交谈,并指导记者如何提问。
《华盛顿邮报》报道称,41岁的莱莫因几个月来一直在与谷歌的经理、高管及人力资源部门争论,因为他声称LaMDA拥有“意识”和“灵魂”。
公开资料显示,莱莫因2015年进入谷歌担任高级软件程序工程师,大部分时间都在从事主动搜索研究工作,包括个性化算法和AI。2021年进入谷歌AI伦理部门后,他的工作是与LaMDA聊天,以测试这个语言模型是否会使用歧视性或仇恨言辞。
莱莫因认为,谷歌一直把AI伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。
对此,谷歌发言人布莱恩·迦百利回应,莱莫因是一名软件工程师,而不是伦理学家。
迦百利在针对该事件的声明中表示,包括伦理学家和技术专家在内的人士,已经根据公司的AI原则评估了莱莫因的说法,并通知他,现有证据并不支持其说法。
声明表示,“谷歌AI部门中的一些人正在研究AI具有‘感知’的可能性,但将如今的对话模型拟人化是没有意义的。这些模型可以围绕不同的主题模仿对话,但没有意识。”
谷歌表示,大多数AI专家认为,这个行业离“感知计算”还有很长的路要走。
这份声明字里行间也传递着一些暗示信息:莱莫因有些疯魔了。
而莱莫因控诉谷歌所谓“不道德行为”的一大罪状,就是反复质疑他的精神状态。“谷歌人力部门老是问我:‘你最近有没有去看过精神科医生?’”谷歌人力部门还“建议”他休个“精神健康假”。
专家:“胡扯”
这一事件在国内外都登上“热搜”,各界评论几乎“一边倒”。
纽约大学心理学教授Gary Marcus时常给AI和深度学习泼冷水,他此次的点评则非常精到:一派胡言。
斯坦福大学经济学家Erik Brynjolfsson打了个生动的比方:声称AI是有感知能力的,就相当于狗听到留声机里的声音,以为主人在里面。
腾讯研究院研究员王焕超曾撰文表示,LaMDA针对自然语言理解(NLU)进行了技术上的突破,这是比自然语言处理(NLP)还要复杂的能力。
基于Transformer架构的语言模型在经过对话训练后,可以通过阅读句子或段落来“破译”对话意图,发现单词之间的关联,并能预测接下来可能出现的单词,从而做出合乎语境的回答。
蓝振忠从美国卡内基·梅隆大学博士毕业后,即以“心理咨询AI化”为“事业红线”。他告诉《中国科学报》,近两年AI语言模型进步非常快,他的团队完成的AI心理咨询小程序“心聆”、AI写作平台HeyFriday,在人机问答中的表现不比LaMDA差。
“单轮、10轮以内的哲学对话已经有不少语言模型可以表现得相当流畅。”但虚拟一位心理咨询师完成一次心理咨询,需要进行几百轮问答、对话,两者所差不止一个量级的难度。“这依然是技术问题,不能说明这个AI小程序具备了‘人格’。”
所以,蓝振忠认为,莱莫因如果深入了解对话模型的原理,就不会有这些想法了。
蓝振忠还表示,根据自己在谷歌的工作经历,该公司的伦理审查制度相当严格。
当记者表示担心AI写作类产品可能给以码字为生的职场人带来失业危机时,蓝振忠笑称,“别慌。AI只是提供辅助作用。它离‘人’还非常远。”