首页 > AI资讯 > 最新资讯 > 中国科学院院士张钹:第二代人工智能的安全性问题主要来自深度学习算法本身

中国科学院院士张钹:第二代人工智能的安全性问题主要来自深度学习算法本身

新火种    2023-11-20

「本文来源:光明日报客户端」

8月2日至3日,首届全球数字经济大会在北京召开,人工智能产业治理论坛作为大会的平行论坛之一备受关注。8月3日,来自我国人工智能领域的科学家、学者以及知名企业家汇聚这场盛会,围绕主题“探索创新、共举担当”展开前沿对话,共同发布了首个《人工智能产业担当宣言》。中国科学院院士、清华大学人工智能研究院院长张钹在大会上发言,他表示第二代人工智能的安全性问题主要来自深度学习算法本身的不安全,更加本质、更难克服。作为引领第四次科技革命的战略性技术,人工智能给社会建设和经济发展 带来了重大而深远的影响。人工智能在纯技术层面是价值中立的,但在实际应用中,兼具创造性和破坏性。数据隐私、算法偏见、技术滥用等安全问题正给社会公共治理与产业智能化转型带来严峻挑战。“人工智能与信息系统在安全性上有着显著区别。信息系统安全性问题主要是软件设计中的漏洞,容易被解决。而第二代人工智能的安全性问题主要来自深度学习算法本身的不安全,更加本质、更难克服。”张钹在主旨演讲中指出,对人工智能进行治理,防止它被误用、制止它被滥用,一方面需要从法律法规、伦理规范、行业共识等不同层面去“治标”,还应从技术创新层面发力去“治本”。张钹院士提出发展第三代人工智能技术,即融合了第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒性(稳定性)的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅认为,人工智能的治理并不存在“发展优先还是治理先行”的矛盾,人工智能稳健发展的两大前提是可持续发展和人工智能的善治,两者深度协同。

如何实现人工智能的可持续发展?

曾毅提出了具体建议,即在人工智能产品设计、研究、开发、部署、使用全生命周期嵌入伦理与治理,并形成政府、学术界、企业、公民社会、媒体、用户、服务提供商等多方主动共治的良性生态,使稳健发展的人工智能赋能全球可持续发展目标的实现。曾毅教授表示,本次宣言的发布对企业具有重要参考作用,将推动政产学研各界加快形成多方共治体系,稳步推进构建“负责任、可持续”的人工智能生态,赋能人类与生态的可持续发展。中国社科院科技哲学研究室主任、科学技术和社会研究中心主任段伟文在演讲中重点谈到了数字时代的社会信任危机与重建。他说,数字技术与人工智能产业发展的伦理风险带来了诸多社会信任问题,面对既防患未然也溯及既往的数字治理趋势,人工智能企业应直面社会许可的挑战,认真感知公众对科技企业的认知和评价。他建议人工智能企业不应回避社会监督,而是不断思考、重塑科技的社会印象,技术改进和伦理设计要齐头并进,携手走向共建性的人工智能伦理治理。

为了更好地推动人工智能技术创新和产业稳健发展,形成更完备规范的创新体系和产业生态,《人工智能产业担当宣言》在本次论坛上正式对外发布。宣言由北京智源人工智能研究院、瑞莱智慧联合发起,华为、寒武纪等人工智能行业的核心骨干企业、学术研究机构共同参与。宣言包含五项倡议,首先强调,人工智能系统的设计、研发、实施和推广应符合可持续发展理念,以促进社会安全和福祉为目标,以尊重人类尊严和权益为前提。其次在技术能力方面,提出要最大限度确保人工智能系统安全可信,提高鲁棒性及抗干扰性,要增强算法透明性和可解释性,同时保障各方权利和隐私,对用户数据提供充分的安全保障。在行业践行方面,宣言也给出了具体实现路径,倡导企业积极参与探索和构建开源开放协作共享机制和平台,建立深度合作伙伴关系,推动良好的产业生态形成。此外,企业还应采取成立人工智能治理委员会或工作组、设立伦理研究院岗位或通过外部技术支持等多种方式积极履行责任,从业者要具有高度社会责任感和自律意识,将人工智能伦理与治理原则、实践贯穿于产品和服务的全生命周期。(光明日报全媒体记者袁于飞)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。