美国人工智能安全研究所与人工智能初创公司 OpenAI 和 Anthropic 签订协议,帮助测试和评估它们即将推出的安全技术。根据周四宣布的协议,美国人工智能安全研究所将提前获得这些公司提供的主要新人工智能模型,以评估能力和风险,并合作制定减少潜在问题的方法。
人工智能安全研究所隶属于美国商务部的国家标准与技术研究院(NIST)。这些协议的签署正值越来越多地推动通过监管来降低人工智能潜在的灾难性风险之际,例如最近在州议会获得通过的有争议的加州人工智能安全法案 SB 1047。
人工智能安全研究所所长伊丽莎白-凯利(Elizabeth Kelly)在一份声明中说:"安全对于推动突破性技术创新至关重要。这些协议只是一个开始,但它们是我们努力帮助负责任地管理人工智能未来的一个重要里程碑。"
该集团在声明中表示,将与英国人工智能安全研究所密切合作,就潜在的安全改进提供反馈意见。此前,Anthropic 与英国人工智能安全研究所合作,在 Sonnet 3.5 模型发布前对其进行了测试。美国和英国的组织此前曾表示,他们将合作实施标准化测试。
OpenAI 首席战略官 Jason Kwon 在一份声明中表示:"我们大力支持美国人工智能安全研究所的使命,并期待着共同为人工智能模型的安全最佳实践和标准提供信息。我们相信,该研究所在确定美国在负责任地发展人工智能方面的领导地位方面发挥着至关重要的作用,并希望我们的合作能为世界其他国家提供一个可以借鉴的框架。"
Anthropic 还表示,建立有效测试人工智能模型的能力非常重要,联合创始人兼政策主管杰克-克拉克(Jack Clark)说:"安全、可信的人工智能对技术的积极影响至关重要。这加强了我们识别和降低风险的能力,推动了负责任的人工智能发展。我们很荣幸能为这项重要工作做出贡献,为安全可信的人工智能设定新的基准。"
美国人工智能安全研究所成立于2023年,是拜登-哈里斯政府人工智能行政命令的一部分,其任务是为负责任的人工智能创新制定测试、评估和指导方针。