5月30日消息,本周,OpenAI的现任与前任董事会成员针对公司治理和人工智能安全问题展开了一系列对立的公开辩论。美国时间周四,OpenAI现任董事会成员布雷特·泰勒(Bret Taylor)和拉里·萨默斯(Larry Summers)对AI安全问题作出回应,声明“董事会正在采取相应积极措施确保安全与保障”。
此前几天,《经济学人》刊登了OpenAI前董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)撰写的文章《OpenAI前董事:AI公司不应自我监管》(AI firms mustn’t govern themselves, say ex-members of OpenAI’sboard),她们在文章中批评了首席执行官萨姆·奥特曼(Sam Altman)及OpenAI的安全实践,并呼吁对人工智能行业实施更严格的监管。
泰勒和萨默斯对前董事的指控进行了反驳,他们在《经济学人》上发表的回应中为奥特曼辩护,并阐述了OpenAI在安全方面的立场。他们提到,OpenAI已经成立了新的安全委员会,并向白宫提交了一系列自愿承诺,以加强安全性和保障。
他们进一步透露,作为新成立董事会的一部分,他们之前曾主持一个特别委员会,并委托WilmerHale律师事务所对导致奥特曼被解职的事件进行外部调查。这一过程包括审查30,000份文件,并对OpenAI之前的董事会成员、高管以及其他相关证人进行了数十次访谈。
泰勒和萨默斯重申,WilmerHale的调查结论指出,奥特曼的解职“并非因产品安全或安全性问题,也不是因为发展速度问题”。
同时,他们也对托纳和麦考利的文章中描述奥特曼创造了“一种有毒的欺骗文化”和从事“心理虐待行为”的说法表示异议。这两位现任董事会成员表示,在过去六个月,他们发现奥特曼在所有相关问题上“非常坦率,并与管理团队保持了一贯的友好合作关系”。
在其专栏文章发布当天接受的采访中,托纳解释了前董事会之前决定解雇奥特曼的原因,称他“多次”对董事会撒谎并隐瞒信息。她还透露,原OpenAI董事会是从推特上得知ChatGPT发布的消息。
对此,泰勒和萨默斯在回应中澄清道:“虽然现在可能难以记起,但OpenAI在2022年11月发布了ChatGPT,当时是作为一个研究项目,以了解我们的模型在对话环境中的应用潜力。它是基于GPT-3.5模型构建的,而该模型在发布时已经上线超过八个月。”
两位现任董事会成员还补充说,OpenAI坚决支持“有效监管人工通用智能”。值得注意的是,奥特曼在被暂时解职后几天内就恢复了职务,他曾“强烈呼吁”立法者对AI进行监管。
自2015年以来,奥特曼一直在积极倡导对人工智能实施某种形式的监管。最近,他表示支持成立一个国际监管机构,但他也表示对“监管过度”感到“非常担忧”。
在今年2月的世界政府峰会上,奥特曼提出了一个“监管沙盒”的概念,提议人们可以在其中安全地试验技术,并根据“真正出错的地方”和“真正成功的地方”制定规章制度。
最近几周,OpenAI经历了一系列离职,包括机器学习研究员简·雷克(Jan Leike)、首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)以及政策研究员格雷琴·克鲁格(Gretchen Krueger)。雷克和克鲁格在离职后都表达了对人工智能安全性的担忧。
值得一提的是,雷克和苏茨凯弗(也是OpenAI的联合创始人之一)曾共同领导公司的超级对齐团队。该团队的任务是研究人工智能的长期风险,包括它可能“失控”的风险。
OpenAI在解散超级对齐安全团队后不久,宣布成立了新的安全委员会。