首页 > AI资讯 > 最新资讯 > 未来可期|人工智能时代:为何强监管是关键?

未来可期|人工智能时代:为何强监管是关键?

新火种    2023-10-19

想象一下,有一个超级助手,它能在瞬间为你推荐理想的餐馆,解答复杂的问题,甚至为你创作动听的歌曲。没错,那就是人工智能——我们时代的神奇之力,在短短的时间内闯入各个行业,宛如“超级英雄”般为我们创造了前所未有的价值。

与此同时,人们对人工智能的担忧也悄悄累积。它会不会误传假消息?我们的工作还安全吗?它会不会在未来某一天,突然宣布“你的工作,我来做”?或者更让人心悸的,它会不会变得聪明到超越人类,成为地球上的新霸主?如何给这位“超级英雄”制定规则,设定边界,确保它为人类服务而非反其道而行之,已经成为全球范围内的热门议题。

2023年6月12日,联合国秘书长古特雷斯表示,响应一些人工智能行业高管的提议,成立一个像国际原子能机构的国际人工智能监管机构。此外,他还透露,计划在今年年底前启动一个高级人工智能咨询机构,定期评估人工智能的管理措施,并就如何使人工智能与人权、法治和人类的共同利益保持一致提出建议。

2023年7月6日,2023世界人工智能大会(简称WAIC)在上海开幕。在开幕式上,特斯拉首席执行官埃隆·马斯克发表视频讲话:“我们需要一些监管措施对人工智能进行监督。考虑到深度人工智能所可能展现出的超越人类的能力,它可能引领我们进入一个积极的未来,也有可能导致某些不太乐观的结果。我们的目标应该是确保走向那个光明的未来。”

2023年9月13日,美国参议院多数党领袖查尔斯·舒默(Charles Schumer)主持召开首届“人工智能洞察论坛”,科技界领袖们应邀参加。这场为期一天的闭门会议的核心议题是:如何为日益强大的人工智能技术制定法规,确保人类能够掌控这项技术,而不是被它掌控。

当你看到参会者名单时,你可能会为他们的实力而震惊:特斯拉的埃隆·马斯克、Meta的马克·扎克伯格、Alphabet的桑达尔·皮查伊、Open AI的萨姆·阿尔特曼、英伟达的黄仁勋、微软现任首席执行官萨蒂亚·纳德拉和前首席执行官比尔·盖茨,还有IBM的阿文德·克里希纳。这群科技巨头的总身价已经接近5500亿美元,这是一个惊人的数字,大约相当于4万亿元人民币。

会议结束后,舒默向在场的记者分享了一个观察:当他提及“政府是否应该在人工智能的监管中扮演角色”这一问题时,场中的每一个人都举起了手(表示同意)。尽管他们的具体观点有所不同,但对于监管的必要性,已经形成普遍共识。

通过上述几则新闻,我们可以发现,对人工智能进行必要的监管,无论是政治家、科学家,还是企业家,大家都有了共鸣。人工智能的进步在为我们带来诸多便利的同时,也带来了前所未有的挑战。只有通过明确的规范和指导,我们才能确保这一技术走向成熟,而不是失控;确保人工智能真正为人类的未来服务,而不是对其构成威胁。那么,人工智能目前到底存在哪些问题呢?

2023年2月16日,怀孕8个月的32岁美国女子Porcha Woodruff,遭到了一个意想不到的打击,她被人脸识别技术错误地标记为犯罪嫌疑人。那天清晨,当Porcha正忙于送孩子上学时,6名警察突然出现在她家门口。他们手持逮捕令,指控Porcha涉及一宗抢劫案。这起事件始于一个月前,当时一名受害人向警方报告了抢劫案件。为了查找嫌疑人,警方使用了人脸识别技术分析了相关的监控录像。结果,系统提供的6张疑似嫌疑人的照片中包括了Porcha Woodruff,更不幸的是,受害者错误地确认了她。Porcha不甘于这一荒唐的误判,她选择起诉底特律警局,并最终成功为自己伸张正义。这得益于她当时的身孕状况,可以证明她不可能是这起案件的真正罪犯。

上述这个案例,揭示的就是人工智能存在的偏见与歧视问题。人工智能很大程度上依赖数据来学习和作出判断。但如果训练数据本身存在偏见,那么算法模型可能会放大这种偏见,比如种族和性别歧视。以人脸识别技术为例,一些系统在识别非白种人面孔时出现了问题,因为训练数据主要基于白种人的面部数据。

Porcha Woodruff事件只是人工智能带来的诸多问题中的一个。在信息传播方面,人工智能存在的问题,是“人工智能幻觉”(AI hallucination)和深度伪造(Deepfake)技术。Deepfake是英文“deep learning”(深度学习)和“fake”(伪造)的混成词。

以ChatGPT为代表的大模型的一个明显缺点,是人工智能幻觉,有时它会一本正经地胡说八道。它总能就用户提出的问题或请求,作出“信誓旦旦”的答复。但用户必须警惕,这可能是生成式人工智能(AIGC)为了取悦你而说出的“谎言”。有报道称,当询问一个大模型关于历史事件的详情时,它可能会添加一些不真实或夸张的细节。

6月22日,美国纽约联邦法官作出一项判决,Levidow,Levidow&Oberman律师事务所引用了ChatGPT撰写的一份由虚假案例引证的法庭简报,行为恶劣,对其处以罚款5000美元。受到处罚的律师事后表示,他反复询问ChatGPT那几起不存在的案例是否是真的,而ChatGPT给出肯定的回复,还称可以在多个法律资料库找到。

除了胡说八道,被人诟病的还有深度伪造技术。2023年1月,全球第一部运用深度伪造技术,实现人工智能合成名人面孔的节目——《深度伪造邻居之战》(Deep Fake Neighbor Wars),在英国电视公司ITV的流媒体平台上线。在这部没有明星实际出演的喜剧中,一群在替身演员基础上由人工智能合成的“名人”成了邻居,在一起插科打诨。

今年早些时候,当美国前总统特朗普在纽约接受审查时,社交媒体上充斥着许多由人工智能生成的伪造图像,似乎显示他与警察发生肢体冲突。如果这种技术被用来伪造政治家或公众人物的言论或行为视频,那么可能给他们的声誉带来深远的负面影响。在此背景下,我们不得不思考:当名人的面孔被人工智能技术合成使用时,他们能否主张其肖像权受到侵犯?他们是否有权获得相应的报酬?制作这类内容的节目或平台需承担何种法律责任?对于这种技术生成的内容,政府有没有相关的监管措施?

另一个关键问题,是人工智能决策的透明度和可解释性。众所周知,许多深度学习模型因其复杂性而被视为“黑箱”。这意味着,尽管这些模型在各种任务上展现出了惊人的准确率,但其内部工作原理和决策机制往往对算法开发者自己都显得难以捉摸。例如,当某人工智能系统拒绝某人的贷款申请时,我们如何确定它是基于客观的信用评分、收入资料,还是其他不那么明确的因素作出的判断?这种不透明性可能导致决策偏见,并在某些情况下产生不公正的结果。

此外,当人们依赖某家企业提供的算法模型作决策,如果由于模型的不准确性导致的失误引发了经济损失或其他负面影响,那我们不得不思考:是模型还是使用者应承担责任?或者说,企业是否有义务在提供模型时明确其可能的风险和局限性?

在医疗领域,当人工智能医疗系统为医生提供疾病诊断建议时,医生往往会思考这些建议的来源以及其背后的数据和推理逻辑。这不仅是医生的问题,也是患者的问题,因为在关乎健康,甚至生命的重要决策中,信任是关键。但是,如果人工智能模型的工作方式像一个“黑箱”,那么如何确保我们不被其可能存在的误导性输出所欺骗呢?当我们开始过度依赖机器作出关键的医疗决策时,我们就面临失控的风险,谁敢保证这个系统每一次都能作出正确决定?

隐私泄露也是一个日益突出的问题。为了提供个性化的服务或优化其模型,众多公司不惜采集大量的用户数据。但随之而来的是这些敏感数据可能面临被非法窃取或被不当使用的风险。据此前媒体曝光,5000万脸书(Facebook)用户的信息,在用户不知情的情况下,被剑桥分析公司违规滥用。这家公司据此向目标用户投放了高度定制的政治广告,旨在2016年美国总统大选中为特朗普的竞选团队拉票。这起事件凸显了我们在数字时代中面临的隐私挑战和企业使用数据的道德界限。

这些问题仅仅是冰山之尖。随着技术进步的脚步,我们可能会面临更多尚未预见的挑战和困境。为应对这些情况,各国正在加强监管力度,不断探索有效的应对策略和前瞻性的解决之道。

早在2021年9月25日,中国国家新一代人工智能治理专业委员会就发布了《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。这里面的第12条,提到了增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。第13条提到了避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

从2021年,中国陆续发布三部重要的部门规章:《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,从算法、深度伪造、生成式人工智能等方面对相关技术的发布者提出监管要求。

这三部规范,也确立了中国将采取“包容审慎的分类分级监管”原则。有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,将制定相应的分类分级监管规则或者指引。

欧盟的人工智能监管路径,主张“以人为本(human-centric)”,在促进人工智能发展与创新的同时,构建监管体系以防范风险、保护公民基本权利和安全。2022年12月15日,欧盟委员会主席、欧洲议会和理事会主席共同签署并发布了《欧洲数字权利和原则宣言》。《宣言》强调人工智能应该是人类的工具,最终目的是增进人类福祉。每个人都有权从算法和人工智能系统的优势中受益,包括在数字环境中做出自己的知情选择,同时保护自己的健康、安全和基本权利免受风险和损害。

《宣言》要求技术公司承诺建设以人为本、值得信赖和合乎道德的人工智能系统。这需要他们做到“六个确保”。

1.确保在使用算法和人工智能方面有足够的透明度。

2.确保人们有能力使用它们,并在与它们互动时获得信息。

3.确保算法系统基于足够的数据集,以避免歧视,并使人们能够监督影响人们的所有结果。

4.确保人工智能等技术不被用来抢夺人们的选择,例如,在健康、教育、就业和其他方面。

5.确保人工智能和数字系统在任何时候都是安全的,并在使用时充分尊重基本权利。

6.确保人工智能的研究尊重最高的道德标准和相关的欧盟法律。

美国则主张,监管的核心目标应当是促进人工智能的负责任创新(responsible innovation)。为实现此目标,美国认为应通过一系列的监管和非监管措施,最大限度地减少对人工智能开发和部署的不必要制约。2022年10月,美国白宫发布了《人工智能权利法案蓝图》,列出了五项核心原则,提出负责任地使用人工智能路线图。该综合文件为指导和管理人工智能系统的有效开发与实施提供了方向,其中尤其强调了防范对公民权利和人权的潜在侵犯。

至于具体的监管架构,美国目前并没有设立专门针对人工智能的独立监管机构。而是采取了部门分工的方式,让各个领域的主管部门在其职责范围内对人工智能进行相关的管理和监督。以此为例,美国食品药品管理局(FDA)负责医疗领域的人工智能产品,而美国交通部则对自动驾驶汽车的人工智能技术进行监管。

日本对人工智能的治理,提出了“以人为本的人工智能社会原则”。该原则包括以人为本、教育、隐私保护、确保安全、公平竞争、公平、问责制和透明度、创新七个原则。然而,日本并没有单纯选择政府为唯一主导的传统治理方式来设定、监督和执行人工智能的相关规则。相反,他们选择了一种被称为“敏捷治理”(agile governance)的模式,鼓励多个利益相关方共同参与和决策。在这种治理框架下,政府、企业、公众及社区等多方共同分析当前社会环境,明确意图实现的目标,制定策略以实现这些目标,并持续地评估与优化已实施的措施。

随着人工智能技术的深入渗透,我们共同认识到了其带来的巨大潜力与同样突出的风险,从人工智能幻觉到深度伪造,从隐私泄露到决策的透明性,这些问题都让我们反思与警视。值得欣慰的是,全球对于强化人工智能的监管达成了共识。各国纷纷挥笔立法,以期为这一技术巨兽划定明确的边界,确保它为人类的未来发展提供助力,而不是成为威胁。

我们有理由相信,人类将能够引导这场科技革命走向更加明亮、公正和有益的未来。正如人类曾成功地驾驭蒸汽机、电力和互联网,我们同样有能力确保人工智能成为下一个改变历史的、有益的工具。

(作者胡逸,一个喜欢畅想未来的大数据工作者。“未来可期”是胡逸在澎湃科技开设的独家专栏。)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。