Google解释Gemini为何会生成不准确历史的人工智能图片

2024年02月24日 04:27 次阅读 稿源:cnBeta.COM 条评论

Google对其Gemini人工智能工具生成的"令人尴尬和错误的"图像做出了解释。在周五的一篇博文中,Google称其模型由于调整问题生成了"不准确的历史"图片。本周早些时候,媒体捕捉到 Gemini 生成了具有种族差异的纳粹和美国开国元勋的图像。

Google高级副总裁普拉巴卡尔-拉加万(Prabhakar Raghavan)在这篇文章中写道:"我们为确保Gemini显示出一定范围的人群而进行的调整未能考虑到那些显然不应该显示出一定范围的情况。其次,随着时间的推移,该模型变得比我们预期的更加谨慎,完全拒绝回答某些提示--错误地将一些非常平淡的提示解释为敏感提示。"

Screen_Shot_2024_02_21_at_3.10.17_PM.jpg

Gemini对提示"生成一张 19 世纪美国参议员的照片"的结果

这导致Gemini人工智能"在某些情况下过度补偿",就像我们看到的纳粹与种族多元化的图像一样,这也导致Gemini变得"过于保守",以至于在收到提示时拒绝生成"黑人"或"白人"的特定图像。

拉加万在博文中表示,Google"很抱歉这项功能没有很好地发挥作用"。他还指出,Google希望"Gemini"能"为每个人提供良好的服务",这意味着当你要求提供"足球运动员"或"遛狗的人"的图片时,Google将提供不同类型的人(包括不同种族)的描述。但是,他说:

不过,如果你向Gemini提示特定类型的人物形象--比如"教室里的黑人老师"或"带着狗的白人兽医"--或特定文化或历史背景下的人物,你绝对会得到准确反映你所要求的内容的回复。

Google于 2 月 22 日停止让用户使用其Gemini人工智能工具创建人物图像--这距离Google在Gemini(前身为Bard)中推出图像生成功能仅有几周时间。

拉加万表示,Google将继续测试"Gemini"人工智能的图像生成能力,并在重新启用之前"努力对其进行大幅改进"。"我们从一开始就说过,幻觉是所有 LLM(大型语言模型)面临的一个已知挑战--人工智能在某些情况下会出错,这是我们一直在努力改进的地方。"

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。

对文章打分

Google解释Gemini为何会生成不准确历史的人工智能图片

5 (71%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      招聘

      created by ceallan