OpenAI研究员辞职 声称安全问题已被改进后的产品所解决

2024年05月18日 02:37 次阅读 稿源:cnBeta.COM 条评论

继联合创始人伊利亚-苏茨克沃(Ilya Sutskever)离职后,本周早些时候辞职的 OpenAI 重要研究员扬-莱克(Jan Leike)周五上午在 X 上发帖称,在公司,"安全文化和流程已经被闪亮的产品所取代"。

访问:

NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器

雷克的声明是在《连线》报道OpenAI 已经解散了专门负责解决长期人工智能风险的团队(称为"超级对齐团队")之后发表的。莱克一直负责管理Superalignment团队,该团队于去年7月成立,目的是在OpenAI开发出能像人类一样推理的人工智能时,"解决实施安全协议的核心技术挑战"。

OpenAI 最初的想法是向公众公开提供他们的模型,这也是该组织名称的由来,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此这些模型已经成为专有知识。

"我们早该认真对待 AGI 的影响。我们必须优先为其做好准备,"莱克在周五上午关于他辞职的后续推文中说。"只有这样,我们才能确保 AGI 造福全人类。"

图片.png

图片.png

在去年不成功的董事会政变中支持 Altman 的另一位 OpenAI 联合创始人约翰-舒尔曼(John Schulman)将接替 Leike 的职责。在针对山姆-奥特曼(Sam Altman)的臭名昭著的失败政变中扮演关键角色的苏茨克沃周二宣布离职。

莱克的帖子凸显了 OpenAI 内部日益紧张的关系。随着研究人员在管理 ChatGPT 和 DALL-E 等消费级人工智能产品的同时竞相开发人工通用智能,像莱克这样的员工开始担心创建超级智能人工智能模型的潜在危险。莱克说,他的团队被剥夺了优先权,无法获得计算和其他资源来完成"关键"工作。

莱克写道:"我之所以加入,是因为我认为 OpenAI 将是世界上从事这项研究的最佳场所。然而,我与 OpenAI 领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。"

对文章打分

OpenAI研究员辞职 声称安全问题已被改进后的产品所解决

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan