负责监督Gemini开发的Google高级产品总监杰克-克劳奇克(Jack Krawczyk)周三写道,Gemini团队正在努力调整人工智能模型,以便生成更符合历史的准确结果。
Krawczyk说:"我们知道Gemini公司提供的一些历史图像生成描述不准确,我们正在努力立即解决这个问题。"
产品总监在同一篇文章中强调,"Gemini"的设计旨在"反映我们的全球用户群,我们认真对待代表性和偏见问题",这表明这些结果的产生可能是人工智能努力实现种族包容性的一部分。
一些 Gemini 用户发布了截图,声称 Gemini 错误地认为美国原住民男人和印度女人代表了 1820 年代的德国夫妇、非洲裔美国人的开国元勋,亚洲和原住民士兵是 1929 年德国军队的成员,甚至还有“中世纪的英格兰国王”。
Krawczyk 说:"历史背景有更多细微差别,我们将进一步调整以适应这种情况,"他补充说,非历史请求将继续产生"通用"结果。但是,如果Gemini被修改为执行更严格的历史现实主义,它就不能再被用来创造历史再现。
更广泛地说,生成式人工智能工具旨在利用特定的数据集,在一定参数范围内创建内容。这些数据可能有缺陷,也可能根本不正确。众所周知,人工智能模型也会产生"幻觉",这意味着它们可能会编造虚假信息,只是为了给用户一个回应。如果人工智能不只是作为一种创造性工具来使用,而是用于教育或工作等目的,那么幻觉和不准确性就会成为一个值得关注的问题。
自 2022 年 OpenAI 的 ChatGPT 等生成式人工智能工具推出以来,艺术家、记者和大学研究人员发现,人工智能模型在创建图像时可能会显示出固有的种族主义、性别歧视或其他歧视性偏见。Google在其人工智能原则中明确承认了这一问题,并表示作为一家公司,Google正努力避免在其人工智能工具中复制任何"不公平的偏见"。
Gemini并不是本周唯一一个给用户带来意外结果的人工智能工具。据报道,ChatGPT 周三也出了点问题,对一些用户的询问做出了毫无意义的回答。OpenAI 表示已经"修复"了这个问题。