将伦理思入现实|应用伦理学探究:人工智能伦理前沿问题
由华东师范大学哲学系应用伦理中心发起的应用伦理工作坊第1期聚焦伦理视野下的老年关怀问题,围绕老年人的尊严、权利、脆弱性、能动性等问题展开研讨。这些讨论在促进学科之间、学科与行业的对话与融合的同时,也推动了伦理学研究范式的转变。
继第1期热烈的讨论之后,2023年11月9日,应用伦理学工作坊第2期以“人工智能伦理前沿问题”为主题,于华东师范大学冯契学术成就陈列室举行。来自浙江大学、同济大学、华东师范大学、南京信息工程大学的教授就人工智能的伦理审查、伦理准则、“黑箱”隐喻、多智能主体伦理以及人机关系伦理等问题展开研讨。研讨内容既反思了人工智能伦理审查的现状,也构想了人机关系的未来伦理图景,期待为人工智能领域高校研究人员的研究工作提供来自伦理学的思考与建议。
工作坊合影
一、人工智能伦理审查的现状与挑战
随着新一轮科技革命和产业革新进程加速演进,工业4.0时代,尤其是ChatGPT等现象级人工智能产品的出现深刻影响着每个人。然而随之产生的伦理问题也成为了全人类所面临的共同挑战。由此,同济大学人文学院杜严勇教授从人工智能伦理审查的现状、挑战与困境、解决路径三方面展开报告。
第一个方面,人工智能伦理审查的现状。首先,根据中国在2021年9月发布的《新一代人工智能伦理规范》和今年9月发布的《科技伦理审查办法(试行)》为例,说明目前国家已将人工智能伦理审查纳入重点工作。然而,杜严勇观察到,目前人工智能伦理审查的工作主要集中于医学领域,但却仍沿用传统的生命科学领域伦理标准,缺少对人工智能领域提出新的审查标准和程序。其次,在学术会议方面,一些国际性的学术会议已要求作者在提交论文的同时要补充一个附件以说明此研究可能产生的社会影响。最后,在科技企业的伦理审查方面,近年,谷歌、微软等众多科技巨头企业都成立了伦理委员会,但有些仅为“昙花一现”。杜严勇推测尽管企业伦理委员会运行情况并不如科研机构成功,但至少很多中外企业都在形式上表现出了对伦理审查的重视。然而,基本上没有企业将自己的伦理审查细致的规定如审查程序、内容和运作方式公之于众。
第二个方面,人工智能伦理审查的挑战与困境。首先,科研人员整体上并不重视伦理审查。一些科研人员对伦理审查重要性的认识不足,把伦理审查当作科学研究的“紧箍咒”,认为伦理审查可能阻碍其科研创新。其次,目前高校伦理委员会建设远远不够,而且具有人工智能特色的伦理审查程序与标准还不够成熟。最后,伦理审查人员的专业素质亟待提高,目前伦理审查人员以兼职为主,专业的教育和培训较少。伦理审查人员一方面需要了解技术的飞速发展,另一方面要对新兴技术可能带来的社会成果有充分的警觉,这对他们提出了较高的要求。
第三个方面是人工智能伦理审查的解决路径。杜严勇认为,重点还是加强科研人员的伦理培训,提高其伦理意识和科技伦理素养;通过学术组织提高、凝聚对伦理审查的共识,扩大伦理审查的范围;完善制度体系,推动机构审查,建立重视伦理审查的激励机制。
杜严勇教授的主题汇报结束后,华东师范大学哲学系颜青山教授结合自己曾参与过的生命科学伦理审查经历,谈了几点看法:首先,医学与生命科学出于政策和期刊会议的硬性要求,的确在伦理审查方面更加成熟。但由于人工智能本身存在难以预测性,对人工智能的伦理审查只能从结果出发,这就要求伦理审查是长期且一贯的。其次,对待人工智能的伦理审查应该适当宽松并建立在“公共善”的原则之上,才能支持科学家的“求知”活动的内在价值,另外,颜青山教授认为在各高校、科研机构设立人工智能伦理委员会的同时,国家层面应该设立更大的审查机构,他用“贺建奎基因编辑婴儿”案例来指出对那些影响特别重大的科研伦理问题,应该由国家层面的科技伦理委员会来跟踪审查,以起预警作用。最后,颜青山教授建议审查委员会不一定要急于开展伦理审查,可以先做伦理观察,即定期与科研人员讨论、收集问题,再交由伦理委员会及时跟进,这样能最大限度地在确保伦理安全的同时保障科学研究的有序开展。
二、人工智能“以人为本”的伦理准则反思
浙江大学马克思主义学院潘恩荣教授从日益紧密的人机关系入手,批判性地考察“以人为本”的伦理准则。在潘教授看来,“以人为本”已经成为了人工智能伦理准则的高频关键词,但人工智能作为人类的工具,在某些方面的能力远超人类,因而是“超人”实体,但是“以人为本”却内含着“以凡人为本”,潘教授提出疑问:在“人与机”关系中,“超人”的(人工智能)机器可能“以(凡)人为中心”吗?
潘教授回顾并梳理了从启蒙运用以来,西方世界所确立的人作为有尊严的、有理性的自然主体地位,这催生了“以人为本”的伦理准则。但西方世界的“以人为本”的伦理准则不仅承袭了“西方中心论”思想和“个人自由主义”思想,还进一步表达了人类与人工智能之间的某种“人类种族中心主义”情绪。据此,潘教授敏锐地指出西方社会提倡的人工智能“以人为本”伦理准则存在两方面的局限,其一是逻辑性悖论。西方社会力图用伦理准则规范人工智能,但由于人工智能的“超人”特征,这可能导致撼动甚至颠覆人机关系之间的主仆地位,因而西方社会提出和倡导的人工智能伦理准则将走向自我否定。其二是人性漏洞。从“理性经济人”角度看,人类可以冒风险接受人工智能机器出现“主奴互换”。基于资本逻辑发明和使用人工智能容易走向极端,进而引发一些不可逆的社会事件。潘教授提到的一种极端情况是,在高利润空间的诱惑下,“理性经济人”就敢冒“与魔鬼做交易”的风险接受“主奴互换”式的机器换人,不惜让人工智能主宰人类命运,例如波音737MAX 坠机案例。另外一种极端情况是,“理性经济人”不断地成功实施“机器换人”,最后走向人工智能大工业。但由此可能造成人类社会的分化甚至瓦解。
基于以上的分析,西方社会人工智能“以人为本”伦理准则的两个局限之间的关系是“人工智能本身与人工智能资本主义应用”的关系。但从马克思的思想角度看,上述关系本质上是“机器与机器的资本主义应用”之间的关系在人工智能维度的再现。那么,基于马克思的思想,潘教授认为有三条路径能够应对西方社会人工智能“以人为本”伦理准则的两个局限。
首先,根据社会存在决定社会意识的历史唯物主义的基本原理,“以人为本”伦理准则及其实践的范围只能是“弱人工智能”。因此,社会现实是当前及未来相当长的一段时间内,人工智能只是“弱人工智能”而非“强人工智能”。那么,逻辑性悖论前半部分关于“强人工智能”的担忧,是没有社会现实基础的虚假的社会意识,虽然有意义但不是当前人工智能“以人为本”伦理准则应该做的事情。其次,根据人的自由而全面发展思想,人工智能“以人为本”伦理准则及其实践欢迎具备伦理能力的人工智能。在当前人工智能大规模社会应用的背景下,关注“现实的人”不能仅仅发展人与机器的关系以实现资本增殖和扩大再生产,还要发展并全面发展人与人、人与机、机与机之间的关系。这既能发挥掌控人工智能的人类群体的个人追求,又有利于公众共享人工智能发展带来的机遇和福利。最后,根据辩证发展思想,人工智能“以人为本”伦理准则及其实践需要合情合理地使用人性特点,治标的方式是合情合理地驱使人性特点发明和使用人工智能,治本的方式是“重构个人所有制”,从根本上消除人工智能社会大生产与个人私有制之间的张力。
华东师范大学哲学系何静教授认为潘教授提出的“弱人工智能本质上还是工具,但是‘以人为本’的思路已经不足以满足我们对人工智能的理解”极具启发性。她由此提出几个问题:其一,人工智能究竟被看作是工具还是主体,仍然是我们理解人机关系的关键。尽管人和机的智能有相同之处,但人工智能和人类意识到底有什么区别?其二,脑机接口的技术,虽然是主要用来治愈,但是往往有“增强”的效果。尽管这非初衷,但却是必须解决的副产品,我们在区分治疗和增强的边界问题上仍道阻且长;其三,人工智能具有伦理能力的表述,可以从两个层面进行问题构建:一个是我们把他们当成工具的时候,考虑到人工智能的限制并非往往顺从我们心意,那么我们到底需不需要人工智能的伦理能力,另一个是人工智能需不需要以自我意识作为基础?否则,我们如何界定它有伦理能力?
三、基于可解释性的人工智能伦理考量
华东师范大学哲学系潘斌教授的汇报由黑箱隐喻引出了可解释性的问题,进一步指出透明性概念的梳理并由此得到“有限透明性”的伦理原则,最终将“不透明的透明性”作为未来智能时代的认知常态。
潘斌教授从控制论的经典问题——黑箱问题谈起。在封闭状态的黑箱盒子内部,它并不需要完全被认知与理解,仅仅只需要在输入端和输出端建立因果关系就能实现认知目的。相应地,白箱就是完全了解内部运作结构,而灰箱是确定性与不确定的中间态。黑箱隐喻将认知过程简化为“刺激-反馈”模式,忽视了认知过程的复杂性。黑箱模式的首要作用就是通过简单的模式理解复杂的事物,其次它也发挥了“无知之幕”的效应。就认识论层面而言,黑箱效应实则是牺牲了“透明性”原则而实现了高效运作的目的。
基于受众的视角而言,潘斌教授提出了黑箱问题中所蕴含的可解释性维度。首先,可解释性与可理解性有着本质区别。可理解性指的是原始模型和源代码是可以理解的,而可解释性指的是在人类与模型之间搭建一个认知界面,目的是保证人类与智能模型能在某一界面实现被理解。本质而言,黑箱隐喻是人工智能不可消解的内在特性,随着智能化进程的深化与加速,由不透明性问题所引发的风险愈加深刻,亟需从伦理审查的视角进行反思。
在此基础上,潘斌教授认为透明性问题是穿透黑箱隐喻的关键所在。从概念起源上而言,“透明性”概念既有其心理学渊源,也在建筑学、绘画中有显著运用。根据以上的阐述,潘斌教授总结了三条有限透明性的基本伦理原则:其一是责任原则是捍卫智能系统透明性要求的底线伦理;其二是境遇伦理是理解智能系统透明性问题的伦理智慧;其三是积极伦理是在智能时代重建信任的伦理突围。最后,潘斌教授提出不透明性的透明性是未来世代的认知常态。
基于潘斌教授的分享,华东师范大学哲学系张容南教授问道,潘教授所说的不透明性究竟是技术本身所固有的特性,还是人类的认知能力无法企及所带来的结果?缺乏透明性会导致我们无法解释人工智能技术是如何工作的,反过来让我们难以信任相关技术给出的结果。例如在医学成像诊断领域,我们可以相信机器给出的判断吗?如果造成误判导致病人的疾病没有得到及时治疗怎么办?也许更可靠的办法是人机协作。如今已经有人机合作诊断的案例,机器人可以看到人类专家没有发现的内容,人类专家也可以通过经验纠正机器人的误判。
另一个问题关于算法黑箱。算法模型是需要数据去训练的。如果现有的数据就是歧视性的,那么靠这些数据训练出来的算法很难是公正的。如何克服算法黑箱以解决人类对公平性的要求呢?黑箱与可控性之间的张力如何解决?这关乎人工智能技术应用的范围和场景。
针对报告最后所提出了三种伦理原则,但这三种伦理原则之间的逻辑关联及其在具体的案例中该如何发挥伦理作用,以及根据境遇伦理或积极伦理如何指导多责任主体的责任分配,都是需要进一步加以阐述的内容。
四、智能社会的未来
南京信息工程大学马克思主义学院崔中良副教授以“智能社会的未来:多智能主体伦理的演进及伦理共同体涌现”为主题,以人工智能将会成为智能主体的中心假设为基础,从智能社会的角度探讨多智能主体伦理的演进过程及伦理共同体涌现的可能性问题。
崔中良副教授首先谈到了Agent的概念,并以此作为未来智能伦理研究的核心问题。人工智能主体的出现使得传统伦理主体的核心概念面临着逐渐被瓦解或被替代的危机。人工智能研究在情感、意识和感知层面的加速推进,使得伦理主体的核心不断扩大,人机伦理关系从融合到共生演化,从而产生人机之间的伦理共同体。未来共同体社会的特征表现为全局性的伦理特征,以弥补传统的分布式道德面临的分配问题,人工智能与人类会深度融合与共同进化。最后,崔中良副教授提出一种假想,即人工智能具有美德,可能具有自我发展德性的能力。
华东师范大学哲学系郁锋副教授提出了几点疑问。首先,全局性的道德模式将会导致道德责任在一个抽象的道德共同体中无法分配,例如,当前在无人驾驶汽车领域大体上仍然采用分布式的道德概念以寻求责任主体的多方平衡,很难在现实中实现一种全局式的道德模型。其次,“Agent”一词存在着比较多的概念差别,有“道德体”(moral agent)、人工智能道德体等说法,预设了情感和感知层面的道德概念,这些概念之间并不完全处于一个维度。此外,人工智能在感知方面的运算与人类的情感或情绪之间的类比存疑。最后,当前学界在谈到人工智能道德体问题时,有自上而下生成式的人机道德以及自下而上的机器与人的价值对齐两种路径,但在这两种思路之外是否还有更好的路径呢?
崔中良副教授回应道,从全局性道德模型来看,这种区域的扩展将情境、语境等因素纳入综合考量,这可能会让我们更加合理地进行道德责任分配。针对人工智能感知是否真实的问题,崔中良副教授指出,传统的观点探讨的是“有没有”的问题,但我们目前判断的层面需要考虑“多与少”的问题。因此,我们应该在“多与少”的问题上给予人工主体一些道德特征。最后,在人机融合的不透明性问题中,一旦人工智能与人融合在一起,可能会存在一些难以解释的问题,但是其中也存在一些他异性,人所保有的价值核心就是人机区分的关键所在。
五、圆桌讨论
在几位教授的主题研讨结束后,与会的各位老师展开了热烈的讨论。
华东师范大学哲学系付长珍教授指出,当前对人机关系的思考基本从西方传统中挖掘概念资源。但对于我们中国的设计者和开发者来说,我们可以考虑的是,是否可以激活不同的情感伦理资源,尤其是儒家的资源,开掘中国传统伦理智慧与人工智能伦理的关系向度,来帮助我们重新认识人机共生的新型伦理关系,把握当代、关怀人类和面向未来。
华东师范大学哲学系蔡蓁教授提出,很多关于人工智能与人类关系的讨论都涉及人工智能系统能否享有道德主体地位。这些讨论关涉我们如何理解道德行动者以及道德的问题,即什么样的道德行动者可以算作道德共同体的成员。毕竟有不同关于“道德”的定义,据此道德成员的门槛也各不相同,因此,人工智能系统的身份界定根本上关乎如何理解“道德”。
思勉高等人文研究院青年研究员陈海博士认为,付长珍教授从中国传统伦理思想中寻找资源是一个很独特的视角,但也提出这里可能存在一个困境,即中国思想中所追求的状态对于人工智能来说是很难达到的状态。那么,我们在用中国思想指导人工智能伦理的时候,是否会在理想和现实基础之间存在一些差异?
华东师范大学哲学系主任刘梁剑教授首先对伦理审查的操作表示了浓厚的兴趣,他所关心的是伦理审查的具体指标以及伦理审查的具体操作程序是如何进行的,审查官的判断依据是什么。其次,关于AI的伦理位置问题,大多数老师在讨论的过程中都将强人工智能作为远景,那么弱人工智能在多大意义上能够成为伦理主体?如果我们用自主性来进行区分,那么自主是否需要划分不同层次,我们应当以哪个层面来定义机器人的主体地位?此外,付老师提出用中国哲学的话语思考人机伦理的问题,虽然能够提供新的话语和新的视角,但其困难在于这些话语在分析层面相对较弱,难以形成可操作的规范,在使用中可能会存在着一定的局限性。
郁锋副教授认为,我们目前所谈到的强AI、弱AI、通用人工智能(AGI),有意识、有知觉、自主的人工智能等这些概念本身的争议是极大的,其中的界定存在着较大的不清晰。因为一开始我们理解AI就是认为它可以解决问题,但随着技术的发展,我们会觉得AI还需要独立意识。然而,意识问题也是一个比较复杂的独立问题,比如独立意识需要有感知吗?有感知就一定有独立意识吗?机器人的迭代升级是否就是有意识?在这些问题之间,很难用一个概念定义另一个概念。
潘恩荣教授认同郁锋教授提出的概念混用问题。他指出,我们在讨论人工智能的时候,存在着太多的知识鸿沟。在人工智能领域,科学家认为人工智能的感知问题已经得到解决,因为在他们看来,情感的表征就是计算,这与哲学中讨论的概念存在一些信息偏差。因此,我们在通识伦理之外,或许也需要转变思路,建立一套技术本身的伦理,这样才能与科学家所谈论的问题接轨,也是应用伦理学学科真正的意义所在。
张容南教授关于是否给机器人道德定位的问题补充了两个方向的思路。一是基于传统思路,看机器是否具有某些人类特征——如理性、感知能力等特征——赋予人工智能道德地位;另一个思路是德性伦理的进路,即我们赋予人工智能道德地位并不依赖于机器是否真正具有人类特征,只要机器以类人的方式与我们互动,我们就应该出于德性的要求对待它。
付长珍教授在总结时提出,关于概念混用的讨论中,概念的有用性也恰恰在于概念的包容性,而哲学探讨开掘出的概念空间也许可以为科学研究者提供一些新的面向和思路,扩展科学创新的范围。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。