这些要求涉及必应(Bing)、Facebook、Google搜索、Instagram、Snapchat、TikTok、YouTube 和 X。根据规定,这八个平台被指定为超大型在线平台(VLOPs),这意味着它们除了要遵守规则手册的其他规定外,还必须评估和降低系统性风险。
在周四发布的一份新闻稿中,委员会表示,它要求这些公司提供更多信息,说明它们各自采取了哪些措施来降低与其服务中的生成式人工智能相关的风险--包括与人工智能技术生成虚假信息的所谓"幻觉"有关的风险、深度伪造的病毒式传播风险,以及可能误导选民的自动操纵服务风险。
"委员会还要求提供信息和内部文件,说明与生成式人工智能对选举进程、非法内容传播、基本权利保护、性别暴力、未成年人保护和精神健康的影响有关的风险评估和缓解措施,"欧委会补充说,强调这些问题涉及"生成式人工智能内容的传播和创建"。
欧盟在向记者介绍情况时还表示,它正计划在复活节后进行一系列压力测试。这些测试将检验平台是否做好了应对人工智能生成风险的准备,例如在 6 月欧洲议会选举前可能出现的大量政治深度伪造。
一位不愿透露姓名的委员会高级官员说:"我们希望推动各平台告诉我们他们正在做什么,以便尽可能做好准备......应对我们可能发现的所有事件,以及我们在选举前必须做出的反应。"
欧盟负责监督虚拟运营商遵守这些针对大科技的 DSA 规则,并将选举安全列为执法的优先领域之一。最近,欧盟正在就针对虚拟运营商的选举安全规则进行咨询,同时着手制定正式指南。
根据委员会的说法,今天的要求部分是为了支持这一指导。尽管这些平台被要求在 4 月 3 日之前提供与保护选举有关的信息,这被称为"紧急"要求。但欧盟表示,希望能在此之前,即 3 月 27 日之前完成选举安全指南。
委员会指出,合成内容的制作成本正在急剧下降,这增加了选举期间制造误导性假新闻的风险。正因如此,委员会对具有广泛传播政治虚假内容规模的主要平台加大了关注力度。
在欧盟看来,上个月慕尼黑安全会议上达成的打击在选举中欺骗性使用人工智能的科技行业协议还不够深入,该协议得到了许多与欧盟委员会现在发送的《索取资料书》相同的平台的支持。
委员会的一位官员表示,即将发布的选举安全指南将"更进一步",并指出委员会计划利用三重保障措施:首先是 DSA 的"明确尽职调查规则",该规则赋予委员会针对特定"风险情况"的权力;其次是通过《反虚假信息行为准则》(无法律约束力)与平台合作五年多的经验,欧盟打算将该准则变为 DSA 下的《行为准则》;最后是即将出台的《人工智能法》下的透明度标签/人工智能模型标记规则。
这位官员补充说,欧盟的目标是建立一个"执法机构生态系统",在选举前可以利用这些机构。
欧盟委员会今天的《索取资料书》还旨在解决比操纵选民更广泛的人工智能生成风险,例如与深假色情或其他类型的恶意合成内容生成有关的危害,无论生成的内容是图像/视频还是音频。这些要求反映了欧盟 DSA 执行 VLOP 的其他优先领域,其中包括与非法内容(如仇恨言论)和儿童保护相关的风险。
各平台可在 4 月 24 日之前对其他生成式人工智能征求意见稿作出回复。
可能传播误导性、恶意或有害深度伪造内容的小型平台,以及能够以较低成本生成合成媒体的小型人工智能工具制造商,也在欧盟的风险缓解雷达上。
这些平台和工具不属于委员会明确的 DSA 对 VLOP 的监督范围,因为它们没有被指定。但委员会扩大监管影响的策略是间接施压,通过大型平台(在此背景下可能充当放大器和/或传播渠道);通过自我监管机制,如上述《虚假信息守则》;以及《人工智能法》(硬法)通过后(预计几个月内)即将启动和运行的《人工智能契约》。