欧盟《人工智能法》(EU AI Act)是欧盟针对人工智能应用制定的具有里程碑意义的基于风险的法规,其最终全文已在《欧盟官方公报》上刊宪。20 天后,即 8 月 1 日,新法将正式生效,24 个月后,也就是到 2026 年年中,其规定将全面适用于人工智能开发者。
不过,该法律采取了分阶段实施欧盟人工智能规则手册的方法,这意味着从现在到那时会有各种值得注意的截止日期,有些甚至更晚,因为不同的法律条款将开始适用。
去年 12 月,欧盟立法者就该集团首份全面的人工智能规则手册达成了政治协议。
该框架根据使用情况和可感知的风险,为人工智能开发者规定了不同的义务。大部分人工智能用途将不受监管,因为它们被认为是低风险的,但法律禁止少数潜在的人工智能用例。
法律允许所谓的"高风险"用例--如人工智能的生物识别用途,或用于执法、就业、教育和关键基础设施的人工智能--但此类应用程序的开发者在数据质量和反偏见等方面面临义务。
第三级风险还对人工智能聊天机器人等工具的制造商提出了一些较宽松的透明度要求。
对于通用人工智能(GPAI)模型的开发商,如 OpenAI 的 GPT(ChatGPT 的基础技术),也有一些透明度要求。最强大的 GPAI 通常根据计算阈值设定,也可能被要求进行系统性风险评估。
在少数成员国政府的支持下,人工智能行业的一些成员进行了大量游说,试图淡化 GPAI 的义务,因为他们担心该法律可能会阻碍欧洲生产本土人工智能巨头的能力,从而无法与美国和中国的竞争对手竞争。
禁止使用人工智能的清单将在法律生效六个月后(即 2025 年初)适用。
被禁止(或"不可接受的风险")的人工智能使用案例包括"中国式的社会信用评分";通过对互联网或摄像头进行无针对性的数据采集来编制人脸识别数据库;执法部门在公共场所使用实时远程生物识别技术,除非存在几种例外情况之一,如在搜寻失踪或被绑架人员时。
接下来,在该法生效九个月后,即 2025 年 4 月左右,将对范围内的人工智能应用程序开发者适用实践准则。
欧盟人工智能办公室是依法成立的生态系统建设和监督机构,负责提供这些准则。但究竟由谁来编写这些准则仍是个问题。
据Euractiv本月早些时候的一篇报道称,欧盟一直在寻找咨询公司来起草这些准则,这引发了民间社会的担忧,认为人工智能行业的参与者将能够影响适用于他们的规则的形式。最近,MLex 报道称,在欧洲议会议员施加压力,要求让这一过程具有包容性之后,人工智能办公室将发起意向征集,挑选利益相关者起草通用人工智能模型的实践准则。
另一个关键的截止日期是法律生效 12 个月后,即 2025 年 8 月 1 日,届时法律中关于必须遵守透明度要求的通用人工智能模型的规则将开始适用。
一部分高风险的人工智能系统获得了最宽松的合规期限,在法律生效后的 36 个月内,也就是到 2027 年,它们可以履行自己的义务。其他高风险系统则必须在 24 个月后更早地履行义务。