在 Reddit 上,由Google "Gemini"GenAI 模型驱动的正在回答粉丝们有关第 LVIII 届超级碗的问题,就好像比赛是在昨天或几周前结束的一样。和许多博彩公司一样,它似乎更看好酋长队而不是 49 人队(抱歉,旧金山的球迷们)。
Gemini的胡编乱造颇具创意,至少有一次给出的球员数据明细显示,堪萨斯州首席四分卫帕特里克-马霍姆斯(Patrick Mahomes)跑了 286 码,达阵 2 次,拦截 1 次,而布洛克-珀蒂(Brock Purdy)跑了 253 码,达阵 1 次。
图片来源/r/smellymonster
不只是Gemini。微软的Copilot聊天机器人也坚称游戏已经结束,并提供了错误的引文来支持这一说法。但是,也许是出于对旧金山的偏见,它说 49 人队而不是酋长队取得了胜利!- 它说"最终比分为 24:21",获胜的是 49 人队,而不是酋长队。
图片来源:Kyle Wiggers / TechCrunch
Copilot采用的 GenAI 模型与 OpenAI 的 ChatGPT(GPT-4)模型相似,甚至完全相同。不过,ChatGPT 似乎要聪明点,没有在同一个地点翻车两次。
这一切都相当愚蠢,但这也说明了当今 GenAI 的主要局限性,以及过于信任它的危险性。GenAI 模型没有真正实现人工智能。这种文本模型通常从公共网络上获取大量的示例,根据这些示例的模式(包括周围数据的上下文)来学习数据(如文本)出现的可能性。
这种基于概率的方法在一定范围内效果显著。不过,虽然单词的范围及其概率很可能会产生有意义的文本,但这还远不确定。例如,LLM 可以生成语法正确但毫无意义的内容,也可能大放厥词,传播训练数据中的错误。
超级碗赛事的虚假信息当然不是GenAI走火入魔的最有害的例子。这可能与支持酷刑、强化民族和种族成见或令人信服地撰写阴谋论有关。不过,这也是一个有用的提醒,提醒我们仔细检查 GenAI 机器人的言论。它们很有可能不是真的。