马斯克曾因AI带来的威胁而失眠,如今发出警告:人工智能比核弹危险
作者 | 一刻君
K
一个如此强大的工具
他如何被我们使用而不伤害我们?
这是我们遇到所有人工智能
创造秩序危机的一个追问
当地时间11月29日,在DealBook峰会上,马斯克对于这段时间OpenAI的“政变”风波发表了自己的猜测。马斯克表示,虽然自己不清楚这场闹剧的内情,但他担忧这一切对于AI将意味着什么,并希望能够知晓旧董事会罢免奥特曼的真实原因。
后来马斯克在被追问AI对于人类究竟是好是坏时回答道:“我们生活在一个有史以来最有趣的时代。我认为,有段时间我确实很受打击,还会因为想到AI带来的威胁而失眠。后来,我选择接受命运的安排,想着‘好吧,即使毁灭将要到来,我还是想要继续活下去吗?’然后,我觉得自己肯定会选择活下去,因为那才是最有趣的,即使我(对于毁灭)做不了什么。”
在会上,向来强调AI威胁论的马斯克也再次呼吁政府应当对AI进行监管:“我认为AI比核弹更危险。我们监管核弹,可你不能在自家后院制造核弹,我觉得我们应该对AI实施某种监管。”
在OpenAI的“政变”风波发生后,几名内部的研究人员曾向OpenAI董事会致信,警告称一项强大的AI发现可能威胁到人类。OpenAI在这项名为Q*的项目上取得的进展让部分公司内部人士相信,这可能是他们找到“超级智能(即AGI)”的突破点。OpenAI将AGI定义为“比人类更聪明的AI系统”,相信这也是让马斯克担忧的根本原因。
今天要分享的是一刻talks的讲者,哈佛大学法学博士、未来法治研究专家郭锐的演讲,他向我们介绍了目前人工智能所遇到的伦理问题,并提出了应对的两个原则,分别是人的根本利益原则和责任原则,呼吁每个人都积极参与到人工智能伦理风险问题的思考中。
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。