全球加速AI监管研究
在欧盟加速推进人工智能(AI)法案的同时,全球多个经济体和国际组织也在积极探索相关的立法监管。11月26日,美国、英国等18个国家的网络安全机构公布一份国际协议,一致认定企业需要在设计和使用AI系统时确保消费者等广大公众的安全。该协议名为《安全AI系统开发指南》,由英国国家网络安全中心同美国网络安全和基础设施安全局以及其他21个国际机构和部委等合作制定。除了美国和英国之外,签署该协议的国家还包括加拿大、法国、德国、以色列、意大利、日本等。不过,这份协议并不具备约束力,大多是提出总体建议,包括监控滥用AI系统的现象、防止数据遭到干预、审核软件供应商资质等。
在去年11月ChatGPT展示了大型语言模型(聊天机器人背后的底层技术)的惊人能力之后,今年以来,全球各大科技巨头都加大了对人工智能的研发力度。但与此同时,如何看待和预防人工智能的相关风险,也成为各界关注的焦点。今年5月,来自OpenAI、谷歌旗下DeepMind、Anthropic和微软等公司的数百名首席执行官和科学家发表了一份联合声明。声明称:“减轻人工智能带来的灭绝风险,应该是全球优先考虑的问题,与流行病和核战争等其他社会规模的风险一样。”今年7月,人工智能领域最大、最有影响力的4家公司Anthropic、谷歌、微软和OpenAI联合成立了一个前沿模型论坛,共同探讨如何负责任地推进人工智能技术。
今年5月,七国集团(G7)领导人委托一个工作组协调被称为“广岛人工智能进程”的监管制度——希望确保成员国之间的人工智能立法是可以互相操作的。随后7月,经合组织发出警告称,被人工智能取代的风险最高的职业将是高技能白领工作,约占成员国就业人数的27%。该组织的报告强调,迫切需要采取行动,并协调应对措施,以避免逐底竞争。
今年10月底,美国总统拜登签署了一项具有里程碑意义的行政命令,推出白宫有关生成式AI的首套监管规定,要求对AI产品进行测试,并将测试结果报告给联邦政府。今年11月,在英国举行的首届AI安全峰会上,在业内处于领先地位的AI开发商同意与政府合作,在新的前沿模型发布之前对其进行测试,以帮助管理AI快速发展带来的风险。今年早些时候,英国还发布了一份白皮书,概述了所谓的“支持创新”的人工智能监管框架。该白皮书只是一个征求意见稿,并不具有法律效力。
在全球加速对AI监管研究的大背景下,对于如何更好地监管人工智能,不同经济体都有自己的不同想法。有专家警告称,随着人工智能技术迅速普及,形成共识的时间已经不多了。因此,加强相关的国际协调和合作已成为当务之急。英国国家数据科学和人工智能研究所艾伦图灵研究所戴维·莱斯利表示:“有必要在这方面采取更加协调一致的国际行动,因为生成式人工智能传播的后果是全球性的。”
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。