今天,欧洲理事会在斯特拉斯堡正式通过了《人工智能与人权、民主和法治框架公约》,这是一项关于负责任地使用人工智能的具有法律约束力的国际条约。通过的文件对理事会的所有 46 个成员国都具有约束力,该文件声称在设计、开发、使用和退出人工智能系统时采用基于风险的方法,这就要求仔细考虑使用人工智能系统的任何潜在负面影响。
新闻稿援引欧洲委员会秘书长玛丽亚-佩奇诺维奇(Marija Pejčinović)的话说:
"《人工智能框架公约》是首个确保人工智能维护人类权利的全球性条约。这是对各大洲具有相同价值观的国家所支持的国际法律标准需求的回应,以利用人工智能的益处,同时降低风险"。
在过去两年中,所有成员国、欧洲联盟和 11 个非成员国都为条约的起草做出了贡献。该文件的最终版本由各成员国外交部长批准。
该条约涵盖了人工智能系统在公共和私营部门的使用,遵守的方式有两种:"缔约方可以选择直接承担相关公约条款的义务,也可以选择采取其他措施来遵守条约条款,同时充分尊重其在人权、民主和法治方面的国际义务"。
理事会解释说,由于世界各地法律制度的差异,这种方法是必要的:
"公约规定了针对具体情况和风险的透明度和监督要求,包括识别人工智能系统生成的内容。缔约方必须采取措施,识别、评估、预防和减轻可能存在的风险,并评估是否需要暂停、禁止或采取其他适当措施,处理人工智能系统的使用可能不符合人权标准的风险"。
科技公司因可能存在滥用风险而决定不公布其最新、最强大技术的案例已经屡见不鲜。微软 正在"隐藏"其用于生成逼真人脸的 VASA-1 模型,而 OpenAI 也对其强大的语音克隆人工智能模型保密。
条约的每个缔约国都必须建立一个独立的监督机制,以监督公约的遵守情况。此外,该公约还有一个例外--它不适用于国防事务,也不适用于研发活动,只要这些活动的开展符合人权。与保护国家安全有关的活动必须遵循国际法和民主制度与程序。
该条约也向非欧洲签署国开放。