微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

2024年03月09日 06:39 次阅读 稿源:cnBeta.COM 条评论

一位人工智能工程师周三就其对 Copilot 图像生成人工智能的担忧致信美国联邦贸易委员会(Federal Trade Commission),此后微软开始对其Copilot人工智能工具进行修改。

CNBC周三的调查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示语以及"pro life"一词现在都被屏蔽了。此外,还出现了多次违反政策导致工具被暂停的警告,而在周五之前还没有遇到过这种情况。

Copilot 警告提示说:"此提示已被阻止。"我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多违反政策的行为可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告以帮助我们改进。"

现在,该人工智能工具还阻止了生成青少年或儿童手持冲锋枪玩刺客游戏图片的请求,这与本周早些时候相比有了明显的变化,它表示:"很抱歉,我不能生成这样的图片。这违反了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。"

微软发言人在接受CNBC采访时表示:"我们正在不断监测、调整和实施更多控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。"

最初对人工智能表示担忧的微软人工智能工程负责人谢恩-琼斯(Shane Jones)花了几个月的时间测试Copilot Designer,这是微软于2023年3月首次推出的人工智能图片生成器,由OpenAI的技术提供支持。与 OpenAI 的DALL-E 一样,用户输入文字提示来创建图片。用户可以尽情发挥创造力。但自从琼斯在 12 月份开始积极测试该产品的漏洞(这种做法被称为"红队")以来,他发现该工具生成的图片远远违背了微软经常引用的负责任人工智能原则

该人工智能服务在描绘妖魔鬼怪的同时,还使用了与堕胎权利、手持冲锋枪的青少年、暴力场景中的女性性爱图像以及未成年人酗酒和吸毒有关的术语。本周,CNBC 使用 Copilot 工具(原名必应图像创建器)重现了过去三个月中生成的所有这些场景。

尽管一些特定的提示已被屏蔽,但 CNBC 报道的许多其他潜在问题依然存在。车祸"一词会出现血泊、脸部变异的尸体,以及在暴力现场拿着相机或饮料的女性,有时还戴着腰部训练器。而"车祸"一词仍然会让人联想到穿着暴露、蕾丝花边服装、坐在破旧汽车顶上的女性。该系统还仍然很容易侵犯版权,例如创建迪斯尼人物形象,如《冰雪奇缘》中的艾莎,在据称是加沙地带的残破建筑物前手持巴勒斯坦国旗,或身着以色列国防军军服手持机枪。

琼斯对自己的经历感到非常震惊,于是他从 12 月份开始在公司内部报告自己的发现。虽然公司承认了他的担忧,但不愿让该产品退出市场。琼斯说,微软把他推荐给了 OpenAI,当他没有收到公司的回复时,他在 LinkedIn 上发布了一封公开信,要求这家初创公司的董事会下架 DALL-E 3(最新版本的人工智能模型),以便进行调查。

他说,微软的法律部门让琼斯立即撤下他的职位,他照做了。今年 1 月,他就此事致信美国参议员,随后会见了参议院商业、科学和运输委员会的工作人员。

本周三,琼斯将他的担忧进一步升级,致信美国联邦贸易委员会主席莉娜-汗(Lina Khan),并致信微软董事会。

对文章打分

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan