首页 > AI资讯 > 最新资讯 > 人工智能监管路在何方?Meta高管警告不要制造道德恐慌

人工智能监管路在何方?Meta高管警告不要制造道德恐慌

新火种    2023-11-03

11月2日讯(编辑 马兰)英国布莱切利公园正在召开具有里程碑意义的人工智能峰会,欧盟高官和人工智能领域的专家将聚集在一起,讨论如何制定人工智能行业的安全标准。

英国前副首相、Meta现任全球事务总裁Nick Clegg在峰会开幕前提前表明态度,呼吁不要过早对人工智能技术进行监管。

他强调,诋毁者们意图把人工智能安全问题拔高到所有人都无法接受的程度,然后自己再干涉监管来获得主动权。

他还提到无线电、自行车、互联网都曾引发过道德恐慌,十年前无人驾驶概念出来时,人们还被恐吓将不存在卡车司机,因为所有汽车都将完全自动化。但现实是,美国现在面临着卡车司机短缺的情况。

监管的关键

人工智能领域关于AI风险性的争论已进入白热化阶段,各路大佬纷纷下场,一时间将人工智能安全隐忧带上新的风口浪尖,但大佬们背后却仍惺惺相惜,只称学术之争不伤友谊。

Clegg之外,计算机科学家、Google Brain联合创始人吴恩达、Meta首席人工智能科学家LeCun都表达了对AI风险人为夸大的风险,并指出这是大型科技公司用以垄断人工智能的手段之一。

LeCun表示,科技业中一些领导者确实存在一种毫无根据的优越感,导致他们相信,他们可以做AI但民众不能做,以及超级人工智能出现指日可待,并具备法学硕士毕业生的所有特征,即知法懂法且还能守法。

被称为人工智能教父的Geoffrey Hinton则回应称,他的忧虑并非站在大公司角度出发,他从谷歌离开就是最好的证明。

但Hinton承认自己确实更愿意看到少数公司掌握人工智能技术,以方便实施监管。他将人工智能类比成核武器,称核武器公开分享的话未必能让世界更安全,让少数大机构持有这种技术永远比让坏人持有来得好,人工智能也是如此。

细究两派的观点不难发现,关于人工智能监管规则的制定,或许是否开放开源才是解开这道题目的关键。

不过,专家们对于AI风险的激辩并不能改变英国峰会的主基调。周三,来自中美等28个国家的代表同意共同努力,以遏制人工智能飞速发展带来的灾难性风险。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。