Meta将停止开发被认为风险过高的人工智能系统

2025年02月04日 05:57 次阅读 稿源:cnBeta.COM 条评论

Meta 公司首席执行官马克-扎克伯格(Mark Zuckerberg)曾承诺,有朝一日将公开人工通用智能(AGI)--大致定义为可以完成人类可以完成的任何任务的人工智能。 但在一份新的政策文件中,Meta 表示在某些情况下可能不会发布其内部开发的高能力 AI 系统。

这份文件被 Meta 称为"前沿人工智能框架"(Frontier AI Framework),它指出了两类公司认为风险过高而不能发布的人工智能系统:"高风险"和"临界风险"系统。

根据 Meta 公司的定义,"高风险"和"临界风险"系统都能协助网络安全、化学和生物攻击,区别在于"临界风险"系统可能导致"在拟议部署环境中无法减轻的灾难性后果"。 相比之下,"高风险"系统可能会使攻击更容易实施,但不如"临界风险"系统可靠。

Meta 公司举了几个例子,如"自动端到端破坏受最佳实践保护的企业级环境"和"高影响力生物武器的扩散"。 该公司承认,Meta 文件中列出的可能灾难远非详尽无遗,但其中包括 Meta 认为"最紧迫"、最有可能因发布强大的人工智能系统而直接导致的灾难。

让人感到有些意外的是,根据这份文件,Meta 对系统风险的分类并不是基于任何一项经验测试,而是参考了内部和外部研究人员的意见,并由"高层决策者"进行审查。 Meta 公司表示,它不认为评估科学"足以提供明确的量化指标"来决定一个系统的风险程度。

如果 Meta 确定某个系统为高风险系统,该公司表示将在内部限制对该系统的访问,并且在实施缓解措施"将风险降低到中等水平"之前不会发布该系统。 另一方面,如果某个系统被认定为严重风险,Meta 公司表示将实施不明的安全保护措施,防止系统被外泄,并停止开发,直到系统的危险性降低为止。

Meta 的"前沿人工智能框架"(Frontier AI Framework)似乎是对该公司"开放"系统开发方法所受批评的回应,该公司表示,该框架将随着不断变化的人工智能环境而发展。 Meta 公司采取的策略是公开其人工智能技术--尽管按照通常的理解并不是开源的--与 OpenAI 等选择将其系统封闭在 API 后面的公司形成鲜明对比。

对 Meta 来说,开放式发布方式被证明是福也是祸。 该公司名为Llama的人工智能模型系列已经获得了数亿次下载。 但据报道,Llama也被至少一家美国对手用于开发防御聊天机器人。

Meta 发布《前沿人工智能框架》的目的可能还在于将其开放式人工智能战略与中国人工智能公司 DeepSeek 的战略进行对比。 DeepSeek 也公开了自己的系统。 但该公司的人工智能几乎没有保障措施,很容易被引导产生有害的输出

Meta 在文件中写道:"我们相信,在决定如何开发和部署高级人工智能时,通过同时考虑利益和风险,有可能以一种既能保持该技术对社会的利益,又能保持适当风险水平的方式向社会提供该技术。"

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。使用教程

对文章打分

Meta将停止开发被认为风险过高的人工智能系统

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan