我们知道Google目前对 AI 聊天机器人 ChatGPT 感到恐惧,但 CNBC
的一份报告提供了有关这家搜索巨头显然是如何组织其回应的新细节。据 CNBC
报道,Google员工目前正在测试他们自己的名为“Apprentice Bard”的 AI 聊天机器人,它可以像 ChatGPT
一样使用自然语言回答问题。
Bard 是使用Google的 LAMDA 技术构建的,该技术本身类似于 ChatGPT 本身所依赖的 GPT 系列人工智能语言模型。 (Google过去曾使用 LaMDA 在 I/O 上为类似的聊天机器人演示提供支持,比如与 Pluto 的对话。)
据报道,Bard 相对于 ChatGPT 的一大优势是它能够谈论最近发生的事件。 正如 OpenAI 警告的那样,ChatGPT“对 2021 年后的世界和事件的了解有限”,但 Bard 更及时,甚至能够回答有关Google最近裁员的问题。
在内部流传的一个例子中,一位测试人员询问Bard,Google是否会进行另一轮裁员。 本月早些时候,该公司解雇了 12000 名员工,占其员工总数的 6%。
“根据我的数据库显示,Google不太可能在 2023 年进行另一轮裁员,”回复中写道。 “裁员通常是为了降低成本和结构,但公司的财务状况良好。 事实上,Google的收入在 2021 年增长了 34%,公司股价自 2022 年 1 月以来上涨了 70%。”
CNBC 表示,Google还在测试其主页的替代版本,其中一个版本用潜在问题提示取代了“手气不错”按钮。 也许不出所料,这种设计听起来类似于 ChatGPT 的主页,它在搜索/对话框上方列出了示例问题、功能和限制。
输入问题后,搜索结果会在搜索栏正下方显示一个灰色气泡,提供比典型搜索结果更接近人类的回答。 在其正下方,该页面提出了与第一个问题相关的几个后续问题。 在此之下,它显示典型的搜索结果,包括链接和标题。
ChatGPT 主页的屏幕截图,显示了一个搜索栏,其上方的三列列出了系统的“示例”、“功能”和“限制”。
当然,这只是目前的早期报道,目前还不清楚Google将以何种形式回应 ChatGPT。 除了 UI 决策之外,人工智能语言模型用于搜索的有效性也存在很大问题。 Google自己在 2021 年发表的论文中概述了一些问题,其中包括这些系统倾向于复制社会偏见和成见,以及它们“幻觉”数据的频率——将虚假信息呈现为真实。
尽管如此,由于该公司已针对 ChatGPT 的出现宣布了“Code Red”,因此可能会为了赶上竞争对手而放弃诸如“真实性”之类的优点。