阿里发布AIGC白皮书,专家解读如何监督AI发展与风险管控?
新京报贝壳财经讯(记者程子姣)12月27日,阿里巴巴集团与中国电子技术标准化研究院联合发布《AIGC(人工智能生成内容)治理与实践白皮书》。阿里巴巴科技伦理治理委员会负责人表示,阿里巴巴正在一边筑牢AI(人工智能)发展的防火墙,一边突破AI应用的天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。阿里巴巴于2022年成立科技伦理治理委员会,并发布国内首部《AI治理与可持续发展实践白皮书》。2023年,AIGC技术取得重大突破,成为全球AI发展的主赛道,阿里巴巴聚焦最新趋势,发布了第二部《AIGC白皮书》。
最新《AIGC白皮书》介绍了全球AIGC技术与应用的最新进展,梳理了各界对这项新技术的疑虑和担忧,剖析了世界各国治理AIGC的不同模式。阿里巴巴科技伦理治理委员会委员、阿里巴巴安全部研究员薛晖对新京报贝壳财经记者表示:“关于AI,我们不知道的比知道的多,难以想象的比可以预测的多。AIGC带来前所未有的挑战,需要我们前瞻性地应对。AI的发展和治理,仅凭一家企业、一所高校、一个机构无法独立完成,必须‘多元协同、开放共治’。
阿里巴巴正在一边筑牢防火墙,一边突破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。”浙江大学教授潘恩荣也表示,生成式人工智能对人类经济社会发展带来巨大的观念冲击,“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。张谧说:“现在全球范围内有AI竞赛的氛围,注重安全反而可能造成技术落后,为了占领先机便不得不搁置安全。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的上界之内,保障AI发展处于安全区域。”
张谧对AI大模型未来的安全前景持乐观态度,她援引前沿观点指出,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”;而更长远地看,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”张谧说。
编辑 岳彩周校对 卢茜
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。