AI崛起不可避免,但不该为此担心害怕
编者按:AI 的能力正在逐渐超出很多人的想象,这引发了大量业内人士的担忧。很多人呼吁要暂停先进 AI 的研发工作。近期,被誉为“AI 教父”和深度学习三巨头之一的 Geoffrey Hinton 从谷歌离职,他说此举是为了能更加公开地谈论和警告人们 AI 的威胁性,并称他对自己毕生从事的 AI 研究感到后悔。但另一位“AI 之父”Jürgen Schmidhuber(译者注:被誉为“LSTM 之父”,此前就曾与深度学习三巨头有过纷争)却不这么认为。他认为工具是中立的,AI 崛起不可避免,我们应该学会拥抱 AI。文章来自编译。
Jürgen Schmidhuber
他曾被称为是“人工智能之父”,现在他已经与许多害怕人工智能军备竞赛的同时代人决裂,他说即将到来的事情不可避免,我们应该学会拥抱它。
1990 年代,Jürgen Schmidhuber 教授开展了神经网络的研究,后来他在这方面的工作被发展成语言处理模型,这些模型之后又被用于谷歌翻译以及苹果 Siri 等技术。2016 年,《纽约时报》曾表示,当人工智能走向成熟时,它可能要叫 Schmidhuber 一声“爸爸”。
现在,人工智能已经走向成熟,尽管部分人工智能先驱正惊恐地看着他们的创造物——呼吁要对技术的加速和扩散拉手刹——但 Schmidhuber 说这些呼吁存在误导性。
这位德国计算机科学家表示,政府、大学和公司正在竞相寻求推进技术发展,这意味着无论人类喜欢与否,现在存在着一场人工智能军备竞赛。
Schmidhuber 现在是沙特阿拉伯阿卜杜拉国王科技大学 AI 计划的负责人。他说:“你无法阻止这场军备竞赛”。
“当然这不是一场国际层面的军备竞赛,因为一个国家的目标与另一个国家的可能会完全不一样。所以,当然,他们不会参与某种形式的冻结行动。
“但我认为你也不该阻止它。因为在 95% 的情况下,人工智能研究其实与我们悠久的箴言相关,也是为了让人类活得更长久、更健康、更轻松。”
相对于新提到的小危险,我会更担心核弹的旧危险
——AI 教授 Jürgen Schmidhuber
Schmidhuber 的立场与他同时代的许多人形成鲜明对比,其中包括 Geoffrey Hinton 博士,后者曾在谷歌工作过 10 年,但其最近突然离开谷歌一事引起了大量关注。他说,自己离开谷歌是为了能更自由地谈论 AI。
Hinton 因其在“深度学习”方面的工作而获得 2018 年图灵奖,并被称为“AI教父”。深度学习是当今在用的大部分 AI 的基础。
“人工智能教父”Geoffrey Hinton,他为了能更自由地讨论人工智能而退出谷歌。摄影:Linda Nylind
他说,面对推动技术进步的竞争,让像谷歌这样的公司来管理人工智能已不再合适。他认为,如果人工智能变得比人类还要聪明,它就有可能会被坏人利用。
但在 AI 研究的功过问题上,Schmidhuber 与业内的 Hinton 等人一直存在着不和,他说这些担忧大部分都是错误的。他还说,对付利用 AI 从事不良行为者的最佳办法是使用 AI 开发好的工具。
他说:“用来改善生活的工具一样可以被坏人使用,但它们也可以用来对付坏人”。
“相对于新提到的小危险,我会更担心核弹的旧危险。”
Schmidhuber 认为,人工智能将发展到超越人类智能、对人类不感兴趣的地步——而人类将继续受益于人工智能开发的工具,并继续使用这些工具。这是 Schmidhuber 已经讨论了多年的主题,他的论断曾在一次会议上被指责 “破坏了科学方法”。
正如我们此前报道的那样,Schmidhuber 作为 AI 之父的地位并非无可争议,他在 AI 界可能是一个有争议的人物。有人说他对技术进步速度的乐观没有根据,而且可能是危险的。
除了 Hinton 以外,最近还有其他人也在呼吁要放慢 AI 的发展速度。今年 3 月下旬,未来生命研究所(Future of Life Institute)发表了一封公开信,呼吁在六个月内暂停建立比 ChatGPT 背后的机器 GPT-4 还要强大的人工智能,亿万富翁埃隆·马斯克是署名的数千人之一。
马斯克透露,上个月他与谷歌联合创始人拉里·佩奇 (Larry Page) 闹翻了,因为他说佩奇对待人工智能安全的态度不够严肃,并试图创造出一个“数字之神”。
译者:boxi。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。