如何确保AI安全?多国协议:从设计阶段抓起
多国网络安全机构26日公布一份国际协议,一致认定企业需要在设计和使用人工智能(AI)系统时确保消费者等广大公众的安全。
据路透社27日报道,这份协议共20页,不具约束力,大多提出总体建议,包括监控滥用AI系统现象,防止数据遭干预,审核软件供应商资质。
美国网络安全与基础设施安全局局长珍·伊斯特利说,多国认同AI系统需要以安全为先具有重要意义,“设计阶段最需关注的要务是安全”。
参与这份协议的机构来自美国、英国、加拿大、德国、法国、挪威、意大利、捷克、爱沙尼亚、波兰、澳大利亚、新西兰、智利、以色列、尼日利亚、日本、韩国和新加坡。
路透社说,协议并非旨在解决“恰当使用AI、收集AI模型训练用数据”等棘手问题,主要针对的问题是确保AI技术不遭黑客劫持,以及建议企业在AI模型通过安全测试后再发布。
世界多国政府正介入AI发展,欧盟正制定AI监管法规。法国、德国和意大利近期就AI监管达成一致,支持AI基础模型“以行为准则方式强制自我监管”。美国政府有意敦促国会出台AI监管法规,白宫10月发布行政令,降低AI对公众构成的风险,同时强化国家安全。
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。