生成式人工智能以各种方式被越来越多地使用,这引起了人们对其可能被敌对分子和团体用来威胁儿童安全的担忧。谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺,将对其人工智能训练数据中的儿童性虐待材料(CSAM)进行审查,并在今后的模型中不再使用这些数据。
这些公司签署了一套新的原则,旨在限制 CSAM 的扩散。它们承诺确保训练数据集不包含 CSAM,避免包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或 CSAM 链接。这些公司还承诺对人工智能模型进行 "压力测试",以确保它们不会生成任何 CSAM 图像,并且只有在经过儿童安全评估后才会发布模型。
其他签署方包括 Anthropic、Civitai、Metaphysic、Mistral AI 和 Stability AI。
生成式人工智能引发了人们对伪造图像的日益关注,包括网上伪造 CSAM 照片的泛滥。斯坦福大学的研究人员在 12 月发布的一份报告中发现,用于训练某些人工智能模型的流行数据集包含 CSAM 图像的链接。研究人员还发现,美国国家失踪与被剥削儿童中心(NCMEC)的举报热线在处理大量 CSAM 报告内容时已显得力不从心,而人工智能生成的 CSAM 图片很快就使其不堪重负。
这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(All Tech Is Human),旨在帮助创建一个"负责任的科技生态系统"。
微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。
博文补充道:
今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。
Google在博文中提到的儿童安全承诺与微软 在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。
最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。