当地时间周四,一项美国人工智能监管法案因备受争议,将重新修改。这项被加利福尼亚州众议院拨款委员会通过的SB 1047法案,即《前沿人工智能模型的安全可靠创新法案》要求对训练成本超过1亿美元的AI模型实施安全监管,需向国家机构报告安全工作,否则需承担刑事责任。
同时,将成立一个新机构协助加州政府执行该法案并制定新的安全标准。
该法案一经发布就遭到Meta和谷歌等大型科技公司,以及代表硅谷的民主党国会议员罗-卡纳(Ro Khanna)和佐伊-洛夫格伦(Zoe Lofgren)的反对。
卡纳议员在一份声明中说:“作为来自硅谷的代表,我一直在推动对人工智能的监管,我完全同意立法的必要性,并赞赏SB 1047法案背后的初衷,但担心该法案会损害个人企业家和小企业的发展,阻碍创新。”
众议院科学、空间与技术委员会洛夫格伦也表示,该法案只是在解决假设性风险,而在很大程度上忽视了真正可能造成人工智能风险的因素。
作为人工智能初创公司的Aitomatic首席执行官克里斯托弗-阮(Christopher Nguyen)也明确表达了他的意见,他表示,该法案可能会影响依赖大型语言模型(如Meta 的Llama 31)的初创企业生态系统、小企业,甚至是街头的普通人。
在一片反对声中,该法案进行了修订,修订后的法案将不再要求这类AI模型公司提交安全测试结果证明,只需提交公开声明概述其安全实践。
目前,修正后的法案正提交加州众议院批准。