首页 > AI资讯 > 行业应用 > AI安全监管势在必行安恒信息深度探索“AI+网络安全”

AI安全监管势在必行安恒信息深度探索“AI+网络安全”

新火种    2023-10-23



近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),自2023年8月15日起施行。《办法》的出台旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。

以ChatGPT为代表的大模型正在引领新一轮全球人工智能技术发展浪潮,深度改变行业生产力,也为网安行业带来了新变量。

安恒信息表示,将牢牢把握时代发展机遇,专注于人工智能结合网络安全的研究,以创新方式拥抱AI变化,积极推动产品AI智能化,推进“服务+AI”“治理+AI”“产业+AI”等应用场景安全升级,为数字经济发展注入源源不断的安全动能。

安全矛与盾:大模型的两面性

安恒信息高级副总裁、中央研究院院长王欣认为,在人工智能时代下,大模型技术存在着“矛”与“盾”的两面性。一方面,AI和大模型技术如“利刃”打破原有安全壁垒,安全需求与应用场景发生重大变革。

在与生成式人工智能交互的过程中,用户常常无意识暴露个人信息、商业机密等隐私数据,得到的却是暗藏平台价值判断的内容反馈。个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的不良影响。

因此,《办法》第三条、第四条在鼓励支持人工智能创新的同时,也强调了制定相应的分类分级监管规则或者指引的必要性。通过约束数据来源合法性、模型算法公平性、生成内容可靠性,引导AI持续向善。

从世界范围来看,为打造一个可信的人工智能生态系统,美国、欧盟同样在探索人工智能治理之道,并通过法律法规来约束人工智能发展。

另一方面,AI和大模型技术也促进了安全产品和服务革新,有助于网络安全防护“盾”优化升级。生成式人工智能能极大提高风险识别效率,在一定程度上弥补现有网络人才缺口,让威胁分析更准确、安全运营更高效、安全防护更智能。

AI与安全同行

日前,安恒信息高级副总裁、首席科学家刘博在参加2023世界人工智能大会时表示:“安全技术要和AI大模型自身的智能技术同步进行,才能有效保障人工智能更可靠、更安全地服务于企业。”

为促进生成式人工智能健康发展,规范数据处理是根本。一个稳健的大模型离不开数据、算力和算法,而在本次《办法》中,数据是第一高频词,出现次数高达18次,数据安全重要性可见一斑。

企业用户在使用AI大模型过程中,可能会不小心造成数据泄露,或是在训练模型过程中,存在那些包含了隐私相关或是产权相关的知识归属问题。

据了解,针对此类数据合规风险,安恒信息已将已将类大模型应用与智能数据分类分级结合,并对算法模型内生的可靠性与稳健性、透明性与可解释性、准确性与公平性等风险进行持续性研究。


关注同花顺财经,获取更多机会

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。