首页 > AI资讯 > 行业应用 > 英美等国联合发布《AI系统开发指引》,号称全球首份相关安全标准

英美等国联合发布《AI系统开发指引》,号称全球首份相关安全标准

新火种    2023-11-29

IT之家 11 月 28 日消息,美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)日前正式发布《安全 AI 系统开发指引》(Guidelines for Secure AI System Development)白皮书。

该白皮书号称“首份全球 AI 安全标准”,旨在从设计阶段强化 AI 系统的安全性,以防范可能的安全风险。

据悉,这份指引是由包括美、英、德、法、日、韩、新加坡在内 18 国,并联合微软、谷歌、OpenAI、Anthropic、Scale AI 等 23 个网络安全组织参与制定。

具体而言,指引包含 4 个主要部分:安全设计、安全开发、安全部署及安全运营(operation and maintenance),指引为每一个部分都提出可能的安全风险及避免方法,以协助开发人员从源头降低相关安全风险。

IT之家注意到,该指引主要提供 AI 系统开发的必要建议,并表明开发 AI 系统应遵循安全设计(Secure by Design)的原则。英国 CISA 指出,这份指引强调把客户安全、透明度及责任、以及建立“安全设计”的组织结构列为优先事项。

这份指引适用于所有类型的 AI 系统,除了涵盖行业内的“尖端模型”,也包含其他利用外部代管的模型或是 API 系统。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。

热门文章