7月9日,美国约翰·霍普金斯大学公布了对“ChatGPT之母”、OpenAI首席技术官米拉·穆拉蒂(Mira Murati)的采访视频。这场采访时间是6月10日,访谈中,穆拉蒂不仅与主持人讨论了OpenAI与Apple的合作伙伴关系,还深入探讨了人工智能的潜在风险、数据隐私以及技术对社会的深远影响。
核心要点
1.关于“ChatGPT-5”
下一代大模型将非常强大,我们可以期待像从GPT-3到GPT-4那样的巨大飞跃。
2.关于AGI的预测
在未来十年内,我们将有超强的AI系统。
3.关于AI与教育
如果教育能够根据你的思维方式、文化规范和具体兴趣进行定制,这将极大地扩展知识和创造力的水平。AI非常强大,能够推动人类知识的进步,从而推动整个文明的进步。
4.关于数据来源
我们主要有三个数据来源:公开数据、与出版商的合作数据以及我们支付人力标注的特定数据。
5.关于OpenAI与Apple的合作关系
OpenAI的目标是让人工智能来覆盖尽可能多的用户。OpenAI将在接下来的几个月里与Apple密切合作。
6.关于数据隐私
对于OpenAI的用户和客户,我们不会在未经允许的情况下使用他们的数据来训练我们的模型。
图片来源:截图于Youtube
穆拉蒂表示,与Apple的合作是OpenAI的一个重要里程碑,目标是让人工智能覆盖更多用户,通过在Apple设备上内置GPT技术,使用户无需更换设备即可享受智能服务。她强调,接下来的几个月里,OpenAI将与Apple密切合作,共同确定产品细节,并在适当时机与公众分享更多信息。
在产品整合方面,穆拉蒂提到,希望将正在开发中的模型能力、多模态性和互动性引入Apple设备,这将是人工智能领域的一次重大突破。她认为,这种进步不仅限于模型能力的提升,还能让信息传递和用户互动变得更加丰富和自然。
谈及用户数据隐私时,穆拉蒂明确表示,OpenAI不会在未经用户许可的情况下使用他们的数据来训练模型,强调了隐私和信任在合作伙伴关系中的重要性。
关于Sora的发布时间,穆拉蒂表示目前没有公开发布的时间表,OpenAI正在与内容创作者合作,以识别如何使技术更加稳定,并进行大量的安全工作。她认为,虽然Sora技术具有巨大的潜力,但其影响也很大,因此需要确保产品的适用性和安全性。
图片来源:截图于Youtube
穆拉蒂在访谈中也提到了AGI的预测,她认为AGI的定义会随着技术的发展而不断演变。她强调,评估人工智能的实际影响比单纯评估技术进步更为重要。她还提到:“在未来十年内,我们将有超强的AI系统。”
穆拉蒂谈到了围绕OpenAI涉嫌在其人工智能模型中盗用斯嘉丽·约翰逊(Scarlett Johansson)的声音的争议,以及研究人员因担心该公司将产品开发置于安全考虑之上而高调离职的问题。她强调OpenAI对人工智能开发和部署的承诺,同时承认需要提高透明度。
面对员工对公司安全的担忧,穆拉蒂回应称OpenAI有许多安全团队,并且公司非常重视安全问题。她提到,OpenAI从GPT-2时代就开始研究虚假信息问题,并一直非常开放地讨论这些问题。
穆拉蒂承认,ChatGPT因过于自由而受到批评,但她强调这种偏见是无意的,“我们一直非常注重减少模型行为中的偏见,我们正在努力减少这些偏见,”不过,穆拉蒂尚未说明有关补救措施的具体细节。
对话还涉及了人工智能对教育的潜在影响,穆拉蒂表示:“如果教育能够根据你的思维方式、文化规范和具体兴趣进行定制,这将极大地扩展知识和创造力的水平。”穆拉蒂认为AI对教育的影响是巨大的,“能推动人类知识的进步,从而推动整个文明的进步”。
图片来源:截图于Youtube
以下米拉·穆拉蒂与主持人对话以及观众问答环节的节选:
主持人:
首先,我很想问你关于与Apple合作的事。我们今天要谈论一点这个话题。这个合作是在世界开发者大会上与OpenAI达成的。从今年某个时候开始,Apple的电脑、手机和iPad将内置GPT,这显然是一个巨大的事件。
Apple是第一次做这样的事情,他们与许多人进行了谈判,可能会逐步包括其他人。我想从你的角度谈谈这个合作是如何运作的。我今天早些时候和Tim Cook(Tim Cook)聊了一下他的观点,现在我想听听你的看法。
米拉·穆拉蒂:
这是我们的一项重要里程碑。Apple是一家标志性的消费产品公司。我们的目标是让人工智能来覆盖尽可能多的用户。这是一个将ChatGPT带给所有Apple用户的绝佳机会,无需更换设备。我们将在接下来的几个月里与他们密切合作,弄清楚产品方面的具体细节,到时候会和大家分享更多的内容。
主持人:
如果你不介意的话,我们来聊一些更加具体的内容。你目前具体在做什么?Apple显然需要改进Siri,因为它非常糟糕。从你的角度来看,你希望在与Apple的合作中实现什么目标?
米拉·穆拉蒂:
我可以具体谈谈产品整合的内容。我们希望带来的是真正开发中的模型的能力、多模态性和互动性,并将这些引入Apple设备。
这是我们在人工智能领域的一次重大突破,特别是在模型与用户之间的交互方式以及模型所展现出的多样化功能上,实现了前所未有的飞跃。这种进步不仅仅局限于模型能力的提升。
这非常有意义,因为迄今为止,我们与设备的互动主要还是通过文本。而现在,这是一个极好的机会,能让信息的传递和我们之间的互动变得更加丰富和自然,同时也极大地减少了互动过程中的限制。
主持人:
当用户向OpenAI发送请求时,这些请求信息不会被保存下来,同时用户的IP地址也会被隐藏。这对于Apple用户来说,无疑是一个重要的好消息。那么,这个过程是如何运作的呢?你们是否仍然可以使用这些请求的数据来训练你的模型?
米拉·穆拉蒂:
不会的。对于我们的用户和客户,我们不会在未经允许的情况下使用他们的数据来训练我们的模型。
主持人:
那么,在与像Apple这样重视品牌声誉的企业合作时,他们最为看重并关心的问题有哪些呢?其中一项尤为关键的是,这些信息会被如何处理和利用,即关于数据流向及用途的担忧。
米拉·穆拉蒂:
我认为这是一个非常一致的合作伙伴关系。隐私和信任是关键,OpenAI的使命是确保我们构建和部署的技术让人们感到信任和有参与感。因此,这种合作关系是非常自然的,并且引领我们朝着期望的目标迈进。
关于虚假信息的问题,这显然是非常复杂的。我认为这将是一个循序渐进的过程,我们需要不断尝试,随着时间推移慢慢调整。
主持人:
我知道与Apple合作必须严谨无误,因为一旦出错,后果可能相当棘手。我很好奇这次合作是如何开始的?是山姆和库克之间的一次对话促成的吗?还是你也参与其中了呢?
米拉·穆拉蒂:
其实我不太记得是什么时候开始的,但已经酝酿了一段时间。
主持人:
你也在与其他公司进行类似的合作谈判。OpenAI已经与新闻集团和Vox Media等公司达成了内容许可协议,这样就减少了潜在的诉讼问题。要是我的话,我可能不会考虑这种合作。
那么,你打算怎么说服我,让我同意你们使用我的信息呢?
米拉·穆拉蒂:
我知道你对此很关心,我可以告诉你我们如何看待数据训练模型的问题。我们主要有三个数据来源:公开数据、与出版商的合作数据以及我们支付人力标注的特定数据。
此外,我们还有用户自愿允许我们使用的数据。关于出版商合作,我们关心的是信息的准确性,用户也非常重视这一点。
因此,我们与特定产品建立了一对一的合作关系,提供对用户有价值的信息,同时也在探索不同的方式来补偿内容创作者,让他们的数据在产品中展示或用于训练。
观众:
我是斯坦福大学计算机科学教授,也是斯坦福人类中心AI研究所的联合创始人。我想问你一个关于数据的问题。很多人认为OpenAI的成功与数据密切相关。我们了解到你的公司从互联网和其他来源获得了大量数据。
那么你认为数据与模型之间的关系是什么?是否简单地认为输入的数据越多,模型就越强大?还是需要花费大量时间来整理不同类型的数据以使模型有效?最后,你如何解决对大量人类生成数据的需求与这些数据的所有权和权利问题?
米拉·穆拉蒂:
关于数据和模型之间的关系,这其实是很多人对AI模型,特别是大型语言模型的误解。开发这些模型的人并不是预先编程它们做特定的事情,而是输入大量数据。
理解这一点非常重要,因为它展示了大型语言模型的工作方式,结合神经网络架构、大量数据和计算能力,产生了惊人的智能,并且随着数据和计算能力的增加,这种能力会不断提升。
当然,我们需要做大量工作来使这些数据可供模型使用。但这就是它的基本结构。我们正在考虑如何提供透明度以了解模型行为的工作原理。我们有一些工具可以让人们对使用这些模型有信心,并让他们有参与感。
主持人:
我觉得大家困惑的点在于,模型训练过程中到底用了哪些内容,又排除了哪些。我记得在三月份,你接受了《华尔街日报》乔安妮·斯特恩(Joanne Stern)的采访,她问你是否使用了YouTube、Instagram和Facebook的视频来训练Sora(OpenAI旗下一款文生视频模型),你当时回答说不知道。那么,关于是否使用了这些数据,你真的不清楚吗?
米拉·穆拉蒂:
我当时没有很好地回答这个问题,现在我可以回答一下。我不能具体告诉你数据的来源,但数据来自这三类:公开数据、我们通过许可和与内容提供商达成的交易支付的数据,以及用户数据。
我不能告诉你具体的来源,因为这是商业机密,帮助我们保持竞争力。但我可以告诉你数据的类别,它们是我之前提到的那几种。
主持人:
唯一的区别是复杂性。因为他们基本上是在快速抓取内容,而没有给出内容来源,任何媒体公司都会对此感到担忧。
米拉·穆拉蒂:
是的,我们希望确保尊重内容创作者,并正在尝试补偿他们。我们正在开发一个工具,称为内容媒体管理器,这将让我们更具体地识别数据的类型,就像唱片公司所做的那样。
主持人:
这在过去是可以做到的。所以这并不是不可能的事情。说到Sora,本周阿什顿·库彻(Ashton Kutcher,好莱坞著名演员)告诉埃里克·施密特(Eric Schmidt,前GoogleCEO),他有一个测试版的Sora,非常惊人。
他还提到,这会让门槛变得更高,因为人们可能会想:“我为什么要看你的电影,而不直接看我脑海里的电影呢?”他的意思是,人们有能力在脑海中构想电影情节,而AI能将这种构想转化为可观看的电影。虽然现在听起来还有些粗糙,但这种想法是否有可能实现呢?
那么,Sora这款应用大概什么时候会准备好,向公众发布呢?
米拉·穆拉蒂:
我们目前没有Sora公开发布的时间表。我们现在正在与一些内容创作者合作,帮助我们识别如何使其更加稳定。我们正在进行大量的安全工作,但也在研究如何以有用的方式向公众推出这项技术。这并不是一件简单的事情。
现在它更多的是一种技术。我们通常会与那些在特定领域有专长的人合作,就像我们最初与DALL·E合作时一样,他们帮助我们识别出一种感觉更有能力的界面,可以创造更多的项目。基本上来讲,我们想扩展Sora的创造力。
主持人:
关于影响,科技公司往往不关心影响,通常他们会发布一个测试版的软件。如果他们发布的是一辆车,这种情况是绝不会允许发生的,因为他们会被起诉到破产。
但很多科技公司发布的产品往往都是测试版,并强加给公众。关于影响这一概念,你是否觉得作为首席技术官,即使你不能预见所有的影响,你是否尊重每项发明可能带来的影响?
米拉·穆拉蒂:
这些影响会对我们和我们的社会产生影响。因此,我并不一定指的是监管或法律方面的影响,而是道德上的责任感,确保我们做对。我对这项技术充满乐观。
它将允许我们做出惊人的事情。我对它在科学、教育和特别是医疗方面的潜力感到非常兴奋。但每当你有如此强大的东西,也会有潜在的灾难性风险。一直以来,都是这样的情况。人类试图放大其影响。
主持人:
我引用的一句话来自保罗·维利里奥(Paul Virilio):“当你发明了船时,你也发明了船难。”这是比船难更严重的可能性,对吗?
米拉·穆拉蒂:
我不同意这个说法。我的专业是工程学。我们的整个世界都是通过工程建造的。工程学就是风险。整个文明建立在工程实践之上。我们的城市、桥梁,一切都如此。这总是伴随着风险的。你通过责任和细致的工作来管理这些风险。
这不仅仅是开发人员的责任。这是一种共同的责任。为了使其成为共同责任,你实际上需要给人们提供访问权限和工具,并与他们一起前进,而不是在真空中建造不可访问的技术。
主持人:
我想多了解一下这个话题。你上个月宣布了ChatGPT-4的迭代更新。它是免费的,对吧?
米拉·穆拉蒂:
确实如此。GPT-4o代表的是Omni-model,因为它结合了所有的模态:视觉、文本、音频。这个模型的特别之处在于,它使与模型的互动变得非常流畅自然,几乎察觉不到延迟。
这是AI互动上的巨大飞跃,与我们之前的版本有很大不同。我们希望将最新的功能免费提供给所有用户,让大家了解这项技术的潜力和局限性。正如我之前所说,通过实际体验,大家更容易理解技术的潜力和局限性。
主持人:
它就像是一道开胃菜,让大家期待ChatGPT-5。那么,ChatGPT-5有什么不同?是个巨大的飞跃还是逐步改进?
米拉·穆拉蒂:
我们还不知道。其实我们还没决定叫什么名字。下一代大模型将非常强大,我们可以期待像从GPT-3到GPT-4那样的巨大飞跃,但具体细节还不确定。
主持人:
显然,你参与了很多项目,我们也聊过很多。OpenAI内部的路线图预测,人类会在2027年实现AGI,这将是一个巨大的里程碑。解释一下这个时间点的重要性。你们是否真的认为会在那时实现AGI?
米拉·穆拉蒂:
AGI的定义因人而异。根据我们的章程,AGI是指在不同领域可以完成经济上有价值工作的系统。从我们目前看到的情况来看,智能的定义不断变化。过去,我们用学术基准测试系统的智能程度。然后,我们看考试成绩。
当我们达到了这些基准,我们需要提出新的评估标准。这让我们思考,在工作环境中如何评估智能?我们有面试、有实习等方式。因此,我预计这个定义会不断演变。或许更重要的是评估和预测在现实世界中的影响,无论是社会影响还是经济影响。
主持人:
根据这个定义,OpenAI认为何时会实现AGI?2027年这个数字准确吗?
米拉·穆拉蒂:
我会说,在未来十年内,我们将有超强的AI系统。
主持人:
但是人们担心的是安全与产品之间的讨论。OpenAI的创立有两个目标,一个是帮助人类,一个是追求巨大的经济利益。我认为你可能介于两者之间。
上周,13名现任和前任OpenAI和GoogleDeepMind员工联名发表公开信,呼吁公司允许他们警告关于先进AI的风险。这并不新鲜,Facebook、Google和微软的员工也曾签署公开信,无论是与高级部门合作等。
但在这个案例中,员工们说,“广泛的保密协议阻止我们表达担忧,而公司可能未能解决这些问题。”基本上就是说,我们不能告诉你风险是什么,但大家可能会遭遇灾难。对此你有什么回应?人们担心遭到报复,而我不想谈论股票的问题,因为我知道你们道歉并纠正了这一点。但如果他们有担忧,难道不应该让他们表达吗?我知道不同人有不同的看法。
米拉·穆拉蒂:
当然,我们认为持不同观点非常重要,能够公开表达这些担忧并讨论安全问题也非常重要。自OpenAI成立以来,我们一直非常开放地讨论虚假信息问题,从GPT-2时代开始,这就是我们早期研究的问题之一。
过去几年,技术进步令人难以置信,速度之快超乎预期,这也增加了人们对社会准备情况的普遍焦虑。我们看到科学的发展方向,所以可以理解人们对未来的担忧。
具体来说,我们在OpenAI所做的工作和部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全地部署了这些模型,我对此感到非常自豪。鉴于技术进步的速度和我们自身的进展,专注于安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练和部署的风险。
主持人:
你提到过这些问题。我好奇的是,为什么OpenAI需要签订保密协议,以及实施比其他公司更严格的规定呢?公开信是在一系列高调离职后发布的,包括杨·莱克(Jan Leike)和伊尔亚·苏茨克维(Ilya Sutskever)。他们领导了对齐团队,负责安全工作。
伊尔亚是OpenAI的联合创始人,他与其他三位董事一起罢免了CEO,但莱克在X上发布了这条消息:“在过去的一年里,安全文化和流程被光鲜的新产品所取代了。”
这是外界对OpenAI持续不断的批评之一。你认为这个批评公正吗?为什么?如果你确实非常重视安全,但外界却认为你不够重视,你会如何回应这样的批评呢?
米拉·穆拉蒂:
首先,对齐团队不是唯一负责安全的团队。OpenAI有许多安全团队,对齐团队是其中一个非常重要的安全团队,但只是其中之一。
我们有很多人在OpenAI从事安全工作,我可以稍后详细解释。莱克是一位了不起的研究人员和同事,我与他共事了三年,非常尊重他,他离开OpenAI后加入了Anthropic,这是我们的一个竞争对手。
我认为我们确实需要更加专注于安全、保护和监管参与,鉴于我们预期领域内的进展。但我不同意我们可能将产品放在安全之前的观点。你为什么认为他们这么说?
主持人:
因为这些是和你共事的人?
米拉·穆拉蒂:
我认为你需要问他们,但我认为许多人认为安全和能力是分开的。我认为整个行业需要向更加严格的安全学科发展。我们有安全系统,有严格的操作安全纪律,这包括许多方面,不仅是操作纪律,还有我们今天产品和部署的安全性,例如有害偏见、虚假信息、错误信息分类器等。
主持人:
但这在OpenAI中一直存在。我认为因为你们是当前的领先公司,所以这个问题更加突出。但人们担心的是安全问题,OpenAI的创立目的之一就是确保安全。
上周,有13名现任和前任OpenAI和GoogleDeepMind员工联名发表公开信,呼吁公司允许他们警告关于先进AI的风险。这并不新鲜,但在这种情况下,员工们说,“广泛的保密协议阻止我们表达担忧,而公司可能未能解决这些问题。”
你对此有什么回应?人们担心发声会遭到报复,而我不想谈论股票的问题,因为我知道你们道歉并纠正了这一点。但如果他们有担忧,难道不应该让他们表达吗?我知道不同人有不同的看法。
米拉·穆拉蒂:
当然,我们认为持不同观点非常重要,能够公开表达这些担忧并讨论安全问题也非常重要。自OpenAI成立以来,我们一直非常开放地讨论虚假信息的问题,从GPT-2时代开始,这就是我们早期研究的问题之一。
过去几年,技术进步令人难以置信,速度之快超乎预期,这也增加了人们对社会准备情况的普遍焦虑。我们看到科学的发展方向,所以可以理解人们对未来的担忧。
具体来说,我们在OpenAI所做的工作和部署这些模型的方式,我认为我们有一支出色的团队,我们非常安全地部署了这些模型,我对此感到非常自豪。鉴于技术进步的速度和我们自身的进展,专注于安全、保护框架非常重要,我们需要考虑如何看待前沿模型训练和部署的风险。
主持人:
对于这种情况,你打算如何应对呢?我能理解这种变化,毕竟在Google、微软和亚马逊的早期阶段都经历过类似的情况。随着公司的成长,很多事情都会发生变化。Google早期也是一团乱麻,Facebook也换过不少首席运营官,多得我都数不清了。很多人都经历过这样的阶段,所以这是很正常的。但对于山姆这种情况,你打算如何应对呢?
例如,他投资了一些外国公司,一些公司与OpenAI有业务往来。他投资了3.75亿美元在一家名为Helion的能源公司,这是一个很酷的公司,他们目前正在与OpenAI谈论大量的电力需求。众所周知,计算需要大量电力。你每天是如何与他打交道的?你如何看待这种关系?你在哪些方面会提出反对意见?
米拉·穆拉蒂:
我一直在提出反对意见。我认为这是正常的,特别是在我们所做的工作中。山姆会对团队提出很高的要求,我认为这是好的。有远大的抱负,挑战我们的极限是很重要的。当我觉得事情超出界限时,我会提出反对意见。这就是我们六年来的合作关系,我认为这种关系是有成效的。你需要能够提出反对意见。
主持人:
你能举一个例子吗?比如,斯嘉丽·约翰逊的例子。我知道你和山姆在ChatGPT的音色这块工作上,是合作完成的,对吧?
米拉·穆拉蒂:
是的,我们有很强的合作关系。但选择声音并不是我们的优先事项之一,不是我们共同工作的内容。我在这方面做了决策,但有山姆他自己的联系。在我选择了Sky之后,他联系了斯嘉丽·约翰逊。我们没有讨论这个具体的决定,这是很不幸的。
主持人:
所以他是单独行动的。
米拉·穆拉蒂:
他有自己的联系,我们在这件事上没有完全协调一致。
主持人:
你觉得这在很多方面很有趣,特别是因为电影和他的推文。但我认为这是OpenAI的一个错误,因为人们会觉得你们在偷窃,即使你们没有偷她的声音,山姆看起来就像是《小美人鱼》里的乌苏拉,偷走了她的声音。即使事实并非如此,但这种感觉是存在的。
那么,让我最后谈谈选举和虚假信息,然后我们会接受观众的提问。当你考虑到AI对虚假信息的力量和即将到来的总统选举时,是什么让你感到担忧?从你的角度来看,最糟糕的情况和最可能的负面结果是什么?
米拉·穆拉蒂:
首先,我们尽可能防止AI的滥用,包括提高信息检测的准确性,了解平台上的情况并迅速采取行动。第二是减少模型中的偏见因素。尽管ChatGPT因过于自由而受到批评,但这并非我们的本意,我们正不遗余力地降低模型中的偏见因素,并将持续努力。第三是我们希望在选民寻找投票信息时,模型可以指向正确的信息。这是我们在选举时关注的三件事。
关于虚假信息,编造信息是不可接受的。我们需要有非常可靠的方法让人们了解他们在看的是编造的信息。我们已经做了一些事情。我们为图像实施了C2PA,它类似于护照,随着内容在不同平台上传播。我们还开放了DALL·E的分类器,可以检测图像是否由DALL·E生成。
元数据和分类器是处理这个问题的两种技术方法。这是信息来源的证明,专门针对图像。我们还在研究如何在文本中实现水印技术。
主持人:
我再问你一个最后的问题,然后我们会接受观众提问。你今天得到了这个问题的不同版本。你对这项技术非常乐观,但我想让你总结一下。如果你是个悲观主义者,甚至有公司说如果我不阻止山姆·阿尔特曼,他会毁灭人类,我觉得这有点夸张。
而其他人则认为,无论如何,这将是最好的事情,我们都会在火星上享受美味的士力架。所以我希望你能告诉我,你最担心的事情和最希望的事情,然后我们会接受观众提问。
米拉·穆拉蒂:
首先,我不认为这是一个预定的结果。我认为我们在构建和部署这项技术方面有很大的自主权。为了做好这件事,我们需要找到一种创造共同责任的方法。
我们今天谈论了很多这个问题,我确实认为控制人们做特定的事情,是非常非常可怕的,意味着你可以控制社会朝特定方向发展。
就希望而言,我非常兴奋的一件事是能够在任何地方提供高质量和免费的教育。对我来说,教育非常重要,它改变了我的生活。
今天我们有这么多工具可用,比如电和互联网,很多工具都是可用的。但大多数人仍然是这种状况——在一个教室里有一个老师,50个学生,每个人都学同样的东西。想象一下,如果教育能够根据你的思维方式、文化规范和具体兴趣进行定制,这将极大地扩展知识和创造力的水平。
如果我们能够真正掌握这个,在很年轻的时候就学会如何学习,我认为这非常强大,并能推动人类知识的进步,从而推动整个文明的进步。
观众:
ChatGPT的模型截止到2021年9月,你们依赖网络搜索来补充数据。我输入一个搜索请求时,确保你们从正确的参考资料中获取正确答案?由于你们授权的受信任来源是商业秘密,我们如何知道你们提供的信息是正确的?
米拉·穆拉蒂:
实际上,有趣的是,ChatGPT项目最初是一个关于真实性的研究项目。我们希望能够表达不确定性,并希望能够在大型语言模型中引用信息,然后它转变成了不同的研究项目。
所以,我们今天在平台上所做的事情,我们有浏览器和工具,我们引入了工具和浏览功能,可以查找内容,我们也在与出版商合作,以便将新闻和额外内容带到平台上,提高准确性。
我们正在着力解决大模型编造虚假信息的问题,这显然是大型语言模型的一个主要问题,但其出现的频率正在逐步降低。我认为这类问题不会彻底消失,但随着模型变得更聪明,我们有理由相信它们的表现会越来越好,我们应该期待它们输出的内容也会更加贴近真实情况,不会编造虚假信息。虚假信息问题非常复杂,我们正在努力探索解决之道,以确保信息的真实性和准确性。
我们希望信息来源尽可能广泛,同时还需要考虑产品的应用场景,不同的应用场景会有所不同。