OpenAI发布灾备架构应对大模型风险:董事会有权推翻决策
当地时间12月18日,OpenAI在官网发布灾备架构初始版本,描述其应对流程以跟踪、评估、预测和防范日益强大的模型带来的灾难性风险。OpenAI规定了四个安全风险等级,并表示只有得分在“中”或以下的模型才能部署。OpenAI表示,其将会成立专责小组,监察技术工作,并建立安全决策的运行架构,“我们正在建立一个跨职能的安全咨询小组,审查所有报告,并将报告同时提交领导层和董事会。虽然领导层是决策者,但董事会有权推翻决策”。此外,OpenAI将制定加强安全和外部问责的协议。灾备小组将定期进行安全演习,以测试其业务压力和公司文化。
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。