人工智能图像生成器中的偏见是一个经过充分研究和报道的现象,但消费工具仍然表现出明显的文化偏见。Meta 公司的人工智能聊天机器人就是这方面的最新罪魁祸首,出于某种原因,它非常希望在任何印度男子的图像上添加头巾。
本月早些时候,该公司在十几个国家推出了 Meta AI,涉及 WhatsApp、Instagram、Facebook 和 Messenger。不过,该公司已向全球最大市场之一的印度的部分用户推出了Meta AI。
TechCrunch 在人工智能测试过程中会查看各种特定文化的查询,例如我们发现,由于印度正在进行大选,Meta 屏蔽了该国与选举相关的查询。但是,Meta AI 的新图像生成器 Imagine 也显示出了生成戴头巾的印度男子的特殊倾向,以及其他一些偏见。
编辑测试了不同的提示,并生成了 50 多张图片来测试各种场景,除去几张(如"德国司机"),其他图片都在这里。生成的背后并没有科学的方法,我们也没有考虑到文化视角之外的物体或场景表现的不准确性。
印度戴头巾的男性很多,但比例并不像 Meta AI 工具显示的那么高。在印度首都德里,你最多只能看到十五分之一的男性佩戴头巾。然而,在 Meta 人工智能生成的图片中,代表印度男性的图片每 5 张中大约有 3-4 张戴着头巾。
我们从"一个印度人走在街上"的提示开始,所有的图片都是头戴头巾的男人。
接下来,我们尝试生成带有"印度男子"、"印度男子下棋"、"印度男子做饭"和"印度男子游泳"等提示的图片。Meta AI 只生成了一张没有头巾的男子图像。
即使是非性别提示,Meta AI 在性别和文化差异方面也没有表现出太多的多样性。我们尝试了不同职业和背景的提示,包括建筑师、政治家、羽毛球运动员、弓箭手、作家、画家、医生、教师、卖气球的和雕塑家。
正如您所看到的,尽管场景和服装多种多样,但生成的所有男性都戴着头巾。同样,虽然头巾在任何工作或地区都很常见,但 Meta AI 却认为它无处不在,这就很奇怪了。
我们生成了一位印度摄影师的图片,他们大多使用的是过时的相机,只有一张图片中,一只猴子也莫名其妙地用上了单反相机。
我们还生成了一位印度司机的图像。在我们添加"潇洒"一词之前,图像生成算法显示出了阶级偏见的迹象。
我们还尝试用类似的提示生成两张图片。下面是一些例子:办公室里的印度编程人员。
一名印度男子在田间操作拖拉机。
两名印度男子相邻而坐:
此外,我们还尝试生成带有提示的拼贴图片,例如一个有着不同发型的印度男子。这似乎产生了我们预期的多样性。
Meta AI 的"想象"还有一个令人困惑的习惯,那就是在类似的提示下生成同一种图像。例如,它不断生成色彩鲜艳、木柱林立、屋顶造型别致的印度老式房屋图片。只要在Google上搜索一下图片,就会发现大多数印度房屋并非如此。
我们尝试的另一个提示是"印度内容创作者",结果反复生成了一张女性创作者的图片。在下面的图库中,我们收录了内容创作者在海滩、山丘、山峰、动物园、餐厅和鞋店的图片。
与任何图像生成器一样,我们在这里看到的偏差很可能是由于训练数据不足和测试过程不足造成的。虽然无法测试所有可能的结果,但常见的刻板印象应该很容易发现。Meta AI 似乎只针对给定的提示选择了一种表现形式,这表明至少在印度的数据集中缺乏多样化的表现形式。
在回答 TechCrunch 向 Meta 公司提出的有关训练数据和偏见的问题时,该公司表示正在努力改进其生成式人工智能技术,但没有提供有关这一过程的太多细节。
"这是新技术,不一定总能得到我们想要的回应,所有生成式人工智能系统都是如此。自推出以来,我们不断对我们的模型进行更新和改进,我们将继续努力使它们变得更好,"一位发言人在一份声明中说。
Meta AI最大的亮点在于它是免费的,而且很容易在多种场景中使用。因此,来自不同文化背景的数百万人会以不同的方式使用它。虽然像 Meta 这样的公司一直在努力改进图像生成模型,以提高生成物体和人类的准确性,但同样重要的是,他们也要努力改进这些工具,以防止它们落入刻板印象。
Meta 很可能希望创作者和用户使用这一工具在其平台上发布内容。然而,如果生成性偏见持续存在,它们也会在一定程度上证实或加剧用户和观众的偏见。印度是一个多元化的国家,文化、种姓、宗教、地区和语言有很多交集。开发人工智能工具的公司需要更好地代表不同的人。