首页 > AI资讯 > 行业应用 > “ChatGPT之父”剑桥演讲遭抵制,学术大佬激战AI安全|钛媒体焦点

“ChatGPT之父”剑桥演讲遭抵制,学术大佬激战AI安全|钛媒体焦点

新火种    2023-11-06
首页资讯视频直播凤凰卫视财经娱乐体育时尚汽车房产科技读书文化历史军事旅游佛教更多国学数码健康家居公益教育酒业美食财经 财经滚动新闻 正文“ChatGPT之父”剑桥演讲遭抵制,学术大佬激战 AI 安全|钛媒体焦点钛媒体下载客户端独家抢先看2023年11月04日 11:57:58 来自北京

OpenAI CEO奥特曼(Sam Altman)

随着美国政府发布新的 AI 法规,关于监管 AI 大模型一事最近又起争议。

北京时间11月2日凌晨,“ChatGPT之父”、OpenAI CEO奥特曼(Sam Altman)在英国剑桥参加活动时,遭到了反 AI 活动的激进分子的强烈抵制,在大礼堂里当面被“砸场子”,少数抗议者要求停止 AI 竞赛。

一些抗议者甚至在阳台上悬挂横幅、扔下传单,场面一度十分混乱。当然,奥特曼在现场倒是很镇定,气定神闲地完成了这场活动。

奥特曼在演讲中表示,即便未来 AI 模型足够强大,但也需要巨大的算力才能运行。如果提高了算力门槛,能够降低蓄意犯罪风险,也能提高问责性。早前,OpenAI联合创始人Ilya Sutskever直言,ChatGPT可能是有意识的,AI 将有潜在风险。

与此同时,Meta AI 首席科学家、2018年“图灵奖”得主杨立昆(Yann LeCun)近日则多次在社交平台上痛批Altman、DeepMind CEO 杰米斯 哈萨比斯(Demis Hassabis)、Anthropic CEO等人正向美国政府“进行大规模的企业游说”,最终可能会导致只有少数大科技巨头能控制 AI 技术。

杨立昆直指这些人散布恐惧活动。“如果他们成功,你我将不可避免地导致一场灾难——少数公司将控制AI。”

随后,哈萨比斯驳斥,“我非常不同意杨立昆的大部分言论。”他指出,在讨论如何最好地利用 AI 时,谷歌DeepMind并不是试图实现“监管捕获”,现在就开始讨论如何监管潜在的超级 AI 更为重要。

在 AI 大模型竞争日趋白热化的当下,行业进入“混战”,围绕巨头控制 AI 这一话题,所有人都在进行激烈交战。

AI 是人类最大威胁?马斯克:AI 将比人类更聪明

过去的近12个月内,ChatGPT席卷全球,生成式 AI 已完全成为今年科技圈的中心话题。

如今,苹果公司也开始拥抱 AI。

北京时间11月3日上午四季度财报会上,苹果公司CEO蒂姆 库克(TimCook)谈到,苹果公司已经在生成式 AI 方面开展各项工作,并正在投入大量的资金负责任的去做。“随着时间推移,你会看到以这些技术为核心的苹果产品将得到进步。”

早前彭博社报道称,苹果正在 AI 领域悄然追赶竞争对手,一方面加大了 AI 相关的招聘力度,另一方面还通过并购初创公司的方式,加速 AI 技术的成熟和落地,而且内部已着手开发大语言模型,内部称为AppleGPT。

同时,2200亿美金身价的世界科技首富、特斯拉CEO埃隆 马斯克(Elon Musk)成立的 xAI 团队也被传首批产品信息,包括与AI信息检索相关Grok、提示词工作站PromptIDE等。此外,谷歌、微软、亚马逊等科技巨头也参与 AI 浪潮中。

然而,包括马斯克、奥特曼等行业领导者,最近却每周谈论宣扬 AI 具有潜在杀伤力、AI 存在风险等话题。这似乎成为了一个“小圈子共识”。

11月2日,马斯克在英国 AI 峰会期间就表示,AI 是人类最大威胁之一,而且AI将会成为历史上最具颠覆性的力量,并将比人类更加聪明。他相信,AI终有一天会令所有人失去工作。

“AI有能力做任何事,我不知道这会令人类觉得舒适,还是不舒适。若你想要一个魔法精灵,AI会满足你所有愿望,而且没有任何限制,也不会只有3个愿望的制约,这是好,也可以是坏,未来的挑战将会是我们如何找到生活的意义。”马斯克表示。

马斯克曾多次警告,AI 比核武器(核弹)更危险。

奥特曼也多次表示,政府管控。10年内,全球将可能拥有一个强大的 AI 系统(AI System),但现在,人类就需要为此做好准备。

美国政府也对 AI 安全问题开始监管。10月30日,美国总统拜登签署了一项针对 AI 的新的行政命令,针对 AI 安全标准方向采取有史以来最全面的行动,保护美国人的隐私,促进公平和公民权利,维护消费者和工人的利益,促进创新和竞争,以及在国外推进美国的领导地位等,管理 AI 潜在风险。

值得一提的是,在新的行政命令中,加强了对 AI 巨头公司的支持力度,如通过研究资金和其他手段支持AI研究、吸引外国人才等。

一石激起千层浪。

随后,“图灵三巨头”等 AI 学术专家围绕 AI 监管展开了激烈讨论,主要分成了两派:以杨立昆和吴恩达为代表的人认为,车还没造好就想刹什么车,AI 没到监管的阶段;而包括马斯克、奥特曼、“深度学习之父”杰弗里 辛顿(Geoffrey Hinton)等人却认为,AI依然非常危险。

其中,杨立昆直言不讳的表示,如果美国持续支持科技巨头的 AI 研究,最终可能会导致只有少数大科技巨头能控制 AI,从而不可避免地导致一场巨大的风险与灾难。

“和许多人一样,我非常支持开放式 AI 平台。但我也相信,未来 AI 是人们创造力、民主、市场力量和监管等多种力量的结合。”杨立昆在X平台写道。

谷歌大脑开创者、斯坦福大学教授吴恩达也支持杨立昆。他表示,对AI技术发展进行强监管是一个“阴谋”。

“这会摧毁创新”,吴恩达指出,“肯定有一些大型科技公司不愿意与开源AI竞争,因此他们正在制造对AI导致人类灭绝的恐惧。这一直是游说者寻求的立法武器,但对开源社区来说是非常有害的。随着许多国家监管的发展方向,我认为没有监管会比现在的情况更好。”

但与此同时,10月25日,图灵奖得主约书亚 本吉奥(Yoshua Bengio)、“深度学习之父”杰弗里 辛顿(Geoffrey Hinton)、姚期智(Andrew Yao)、张亚勤等 AI 行业专家也签署了一封联名信,信中继续呼吁加强对于AI技术发展的监管,认为在开发这些系统之前应采取紧急治理措施,并在AI研发中向安全和道德实践进行重大转变。

如今,这场围绕 AI 安全监管的学术大佬间激烈交战仍在持续。AI 当前已深入从搜索引擎、社交到金融等各个领域,因此专家们对这场 AI 军备竞赛、安全风险、深度造假等挑战提出了严重担忧。

Yoshua Bengio、Geoffrey Hinton、Yann LeCun

而很多网友担心大佬们的关系会不会受到论战的影响。杨立昆前段时间发了一条与Yoshua Bengio、辛顿之间的合照,似乎很好地回应了这个问题。

11月3日,美国政府表示,其已成立 AI 安全研究所,希望通过美国商务部等机构的立法身份,制定监管 AI 未来的标准和规则。

监管加速,未来10年人类或将全面进入智力时代

11月1日,在英国伦敦布莱奇利园举办的首届人工智能安全峰会上,发布了《布莱奇利宣言》,宣言称 AI 带来巨大机遇,有潜力增强人类福祉、和平和繁荣,但同时 AI 也带来重大风险,而需要通过国际合作的形式解决各种风险。

会上,包括美国、中国及欧盟在内的超过25个国家和地区签署了该宣言。英国首相苏纳克表示,“这是一项具有里程碑意义的成就,世界上最强大的 AI 强国都认识到‘了解AI风险’这件事的紧迫性,这有助于确保我们下一代的长远未来。作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”

宣言中指出,AI 将带来重大风险,包括在日常生活领域,“所有问题都至关重要,我们确认解决它们的必要性和紧迫性。”

“为了实现这一点,我们申明,为了所有人的利益,AI应该以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用。”宣言称,AI产生的许多风险本质上是国际性的,因此最好通过国际合作来解决——识别共同关注的AI安全风险以及支持具有国际包容性的前沿 AI 安全科学研究网络。

11月3日,在北京大学举办的“新一代人工智能前沿论坛”上,北京大学计算机学院教授,北京智源人工智能研究院院长黄铁军表示,目前这场争论问题在于,大家对 AI 的基本认识不同,很多搞科学思维的人不相信通用人工智能(AGI)会实现,而包括杨立昆在内的另一种技术思维认为 AI 发展可行。

“这是两种完全不同的思维方式,谁也说服不了谁。所以争论背后,是大家完全是用不同的立场、不同的思维方式来看这一问题。”黄铁军在演讲中称。

对于未来 AI 大模型技术的发展,黄铁军给出了3年、10年和20年阶段的预期。

未来3年,大模型将扩展到视觉、听觉、具身智能、行动等通用智能、规模变大、尺度变小,成为具身智能的“大脑”;普通语言升级为科学语言,人工智能解决重大科学问题。

未来10年:人类全面进入智(能)力时代,就像工业革命解放体力,就像电力革命解决能源流通,以智力为核心的科技、经济、社会生态构建完成。

未來20年:目前大模型是数据驱动的静态智能,未来是时空环境驱动的动态智能,智能载体升级为类脑的脉冲神经网络;2045年,结构仿脑、功能类脑、性能超脑,物理AGI到来。

此外,Al安全至少要同等重视,否则人类面临巨大风险。

在黄铁军看来,未来10年,整个世界的经济社会、科技的形态可能都会发生一个重大的变化,智力将成为社会运行的基本要素,就像今天的电力无处不在一样,世界就形成了。而2045年,在 AI 技术下,人类可以实现实时智能数据,并将迭代升级,大脑、后续决策也会发生变化。

“我认为,2045年之前,像我们人类所有的这些灵感创新能力,会在一个非有机体上出现,但如果出现,那就是一个巨大的风险,我们人类要不要做这个选项,还是说可以慢一点,这需要多多讨论。”黄铁军在演讲结尾表示。

(作者|林志佳)

“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。

Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。