今年早些时候,美国联邦贸易委员会曾警告说,如果公司修改隐私声明的条款和条件,允许它们使用客户的数据来训练人工智能模型,那么它们将受到极大的诱惑。该委员会说,为了避免担心隐私的用户的反弹,公司可能会试图悄悄地、大张旗鼓地做出这些改变。然而,这种行为是非法的,委员会补充说,任何违背用户隐私承诺的公司都有触犯法律的风险。
该委员会明确指出:"如果一家公司采取更宽容的数据做法--例如,开始与第三方共享消费者数据或将这些数据用于人工智能训练--而只是通过偷偷摸摸、追溯性地修改其服务条款或隐私政策来告知消费者这一变化,这可能是不公平或具有欺骗性的。"
但根据《纽约时报》的分析,这正是正在发生的事情。
随着公司寻求数据来训练其人工智能模型,它们越来越多地转向受隐私法保护的数据。为了给自己提供法律保障,它们正在精心改写条款和条件,加入"人工智能"、"机器学习"和"生成式人工智能"等术语。
Google就是一个例子。去年 7 月,Google对其隐私政策进行了几处重要调整。现在,该政策规定,Google使用公开信息来帮助训练其语言人工智能模型,并开发Google翻译、Bard(现为双子座)和云人工智能功能等产品。
Google对《纽约时报》解释说,这一改动"只是澄清了较新的服务,如 Bard(现在的双子座)也包括在内。我们并没有因为这一语言变化而开始在更多类型的数据上训练模型"。
上个月,Adobe 也采取了类似的行动,但却遭到了用户的强烈反对。一个弹出式窗口通知用户进行更新,暗示该公司可以访问用其创意套件创建的内容并要求所有权,以训练人工智能模型等。许多用户对此非常愤怒,尤其是当他们意识到,如果不立即同意这些令人困惑的新条款,就无法访问自己的项目。这导致了一波取消订阅的浪潮,并迫使 Adobe 就更新后的条款做出澄清。
今年 5 月,Meta 通知其在欧洲的 Facebook 和 Instagram 用户,它将使用公开发布的帖子来训练其人工智能。然而,在欧洲 11 个国家的欧洲数字权利中心(European Center for Digital Rights)提出投诉后,Meta 暂停了这些计划。
由于消费者保护措施较弱,以及包括美国联邦贸易委员会在内的州和联邦监督机构错综复杂,Meta 更容易收集美国用户的数据。
随着越来越多的隐私政策被修改以纳入人工智能数据训练,该委员会将采取什么行动还有待观察。