首页 > AI资讯 > 最新资讯 > AI立法进行时丨让AI更负责任,需打开“黑箱”

AI立法进行时丨让AI更负责任,需打开“黑箱”

21世纪经济报道    2023-12-25

  21世纪经济报道见习记者肖潇实习生刘悦行北京报道

  一项难以解释、不被理解的科技,人们能信任它吗?

  答案有些反直觉:也许能。

  在普遍认知中,信任的基础是可解释、可理解。但在漫长的技术史中,对大多数科技产品的信任往往并不取决于信息披露——想想电梯、电视、电脑,普通人不需要完全理解这些技术的逻辑,也能放心使用。

  人工智能技术在过去一年突飞猛进,“算法黑箱”始终是萦绕人工智能的一大困扰,透明度、可解释性已经成为人工智能治理的共同原则。2023年11月,世界互联网大会发布《发展负责任的生成式人工智能共识》,第六条共识就是增强生成式人工智能系统的透明度与可解释性。

  对于人工智能,为什么强调透明度和可解释性?二者有什么关系?应该为此设立怎样的监管护栏?

  12月18日,由中国社会科学院法学研究所主办,南财合规科技研究院承办的“人工智能安全风险和法律规制研讨会”在北京举行,专家代表就人工智能的透明度和可解释性,提出了多种思考视角。各界代表指出,考虑到非比寻常的计算量级,人工智能的可解释性难度大。因此在制度设计上,针对需要保护个人权益的用户、需要问责的监管机构,应将透明度和可解释性分情景讨论。提出具体要求时,需要尤其注意数据安全、知识产权保护问题。

  可解释性是提高透明度的前提和手段

  中国人民公安大学数据法学研究院院长、法学院教授苏宇首先指出,可解释性一词来自两个方面:一是“可诠释的机器学习”中的“可诠释”(interpretable),二是“可解释的人工智能”中的“可解释”(explainable)。

  当下的人工智能治理要求中,通常采用的是“可解释”。

  可解释性和透明度有什么关系?南财合规科技研究院首席研究员、21世纪经济报道合规新闻部副主任王俊分析,人工智能模型的可解释性是提高透明度的前提和手段,也是影响透明度的重要因素。简单来说,算法设计完成时,可解释性程度就已基本确定,但此刻透明度仍然接近于零——需要通过事后的披露、解释和说明工作,才能满足透明度的要求。

  王俊进一步解释,这是因为可解释性是算法模型的客观属性,即某一算法在技术架构上是否具备了作算法解释的条件;而透明度需要结合算法运行的客观结果和用户的主观预期,也就是解释算法决策的内在逻辑,特定因素在其中的实际影响力,让其结果符合用户的主观认知和预期。

  “人工智能的决策空间会越来越大,未来我们不可避免跟人工智能打交道。透明度和可解释性是保障人工智能系统可信的关键,也是落实我们每个人主体权利的重要一环。”王俊表示。

  人工智能可解释吗?

  在实践层面,关于人工智能透明度和可解释性的情况并不乐观。斯坦福大学于10月18日发布的研究的“基础模型透明指数”,对10家主要的人工智能公司进行排名。得分最高的是脸书母公司Meta Platforms推出的人工智能模型“Llama 2”,但得分仅有54%,而OpenAI的GPT-4排名第三,得分为48%。

  中国移动研究院法务管理主管郝克勤认为,目前的挑战来自算法安全。“为了规避系统和算法被恶意利用和操控的风险,有必要对算法的运行保持最低水平的不透明度,虽然可能有损可解释性,但是确保人工智能的安全性。而且从实际效果来看,模型的透明度会牺牲其有效性和准确性为代价,同时由于存在实际理解层面的偏差及算法的内部逻辑的描述难度,不合理的算法公开反而会适得其反,增强用户不信任感。”此外,“代码的披露以及知识产权安全等角度同样面临风险,可能泄露人工智能模型和工作机制等商业敏感材料,或者不恰当地披露用户个人数据信息。”

  郝克勤也指出,最大的挑战其实还是人工智能难以解释。算法内在逻辑非常复杂,怎样把技术术语描述成大众和监管部门理解的内容有很大困难,很难向用户解释实现自动化的决策过程。

  王俊同样认为,人工智能的可解释性是一道难题:“有学者认为,不可解释性本身就是人工智能的一种特性。而且,人类的思维是因果关系,但机器学习大部分是相关关系,向公众解释这一过程很难。”

  而对于透明度,王俊则认为过于宽泛的范围会使公众无法理解。此外,还存在义务范围难以界定、人工智能研发者和提供者的合规成本难担等一系列问题。

  拿透明度的制度设计来说,不同的主体和专业能力不一样,透明度的标准也不尽相同。透明度的颗粒度也是一道难题。以隐私政策为例,过于冗长、细致的隐私政策,对普通用户往往是一种负担,甚至会阻碍用户进一步理解实际个人信息收集情况。“如果透明度颗粒度太细,一定程度上就把责任和负担转嫁给了公众。”王俊指出。

  值得注意的是,人工智能的透明度和可解释性,和个人信息保护法下的透明度和可解释性可能有不同含义。对外经济贸易大学法学院教授许可认为,个人信息保护法围绕个人的人格利益展开,但“不是所有的人工智能都与个人信息有关。”此外,从宏观视角看待人工智能的可解释性和透明度,许可认为可以将其统一理解为信息规制的工具,以信息披露的方式解决人工智能的种种问题。

  可解释性和透明度通向何方?

  法律、监管政策中关于透明度与可解释性的条款众多、由来已久。当地时间12月8日,欧盟就全球首个全面监管AI的《人工智能法案》达成临时协议,其中第13条纳入了“设计透明”的原则,规定“高风险人工智能系统的设计和开发应确保其操作足够透明,以便用户能够理解系统的输出并适当使用它。”这意味着,在开发高风险的人工智能系统时,应该及早讨论透明度问题。

  2023年10月,全国信息安全标准化技术委员会发布了《生成式人工智能服务安全基本要求》(征求意见稿),对于模型安全的服务透明度方面规定,以交互界面提供服务的,应在网站首页等显著位置向社会公开服务适用的人群、场合、用途等信息,和第三方基础模型使用情况。

  但人工智能的透明度和可解释性仍有许多角落需要探索。

  在许可看来,透明度、可解释性对解决信任问题的作用是有限的,这是因为许多关于信息披露的经济学研究都显示,人们有“决策厌恶”的倾向——意思是人会避免做陌生、复杂的决定。可以说,信息披露并不是产生信赖的关键要素,它的目的应该是让人工智能更负责任。

  许可解释,责任首先面向用户,除了普遍性的信息披露,如果发生个人侵权事件,可以要求人工智能的解释承担基于个案的证明责任。另一种责任则面向监管者,旨在完善问责机制。“中国之前的行政监管经验,比如算法备案、算法评估,实际上都起到了固定信息的作用。目的是如果事后出现问题,能够追究责任,而且后续的检查都在这个框架中展开。”许可认为,透明度和可解释性应该放置于信息披露的制度框架中,核心是面向监管机关的信息披露。

  苏宇则认为,如何解释应该分情景讨论。对于面向一般公众的常规情景,提供基本文字说明的软解释即可,现有实践包括字节跳动、美团旗下产品的算法说明;对于专业使用场景,应该提供混合解释。顶尖人工智能围棋软件就提供了一个很好的示范,下哪一步棋、每步棋的预测胜率、大致的预测依据,都有清晰的可视化解释,能够将专业术语翻译为通俗易懂的语言。

  更深层次的问责问题,则是另一种情况。在这种情况下,需要以数值化、计量化的方式,可靠地披露算法模型中人们关心的某一个或某一组输入对输出的影响,也就是提供“硬解释”。苏宇坦言,人工智能计算量级巨大,可能难以实现算法解释义务,但“可以提出架构透明的要求,不一定所有算法设计都公开,但起码披露出大概架构。架构透明的基础下,再针对权益保障和法律争议问题,提供混合解释或者硬解释,以此保护不同场景下的合法权益。”

  此外,业界、学界代表都认同透明度和可解释性应分不同维度。郝克勤就提到,维度可以是不同主体,比如分成需要保护个人权益的用户、需要维护安全的监管机构;也可以是不同行业,比如按行业监管要求,分为自动驾驶、医疗、新闻领域等等。

  值得一提的是,自愿激励、第三方治理的方式是多方认可的路径。许可建议参考企业ESG认证,鼓励市场化的专业测评、认证机构。而企业合规承诺书,也可以是提高用户对人工智能系统信任的一大保障。

(文章来源:21世纪经济报道)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。