首页 > AI资讯 > 行业应用 > OpenAI神秘项目“Q星”浮出水面,它会威胁人类吗?

OpenAI神秘项目“Q星”浮出水面,它会威胁人类吗?

新火种    2023-11-28

百年之后,人类再看这段OpenAI的“宫斗大戏”,或许会从商战之外,看到2023年的人类面对未知世界忧心忡忡。

是否要继续投入资源,催动AI进化?身处2023年的人类,并未形成共识。即便是全球顶尖的科技公司OpenAI,管理层的观点也有分歧。据媒体援引知情人士消息,在CEO奥尔特曼被罢免之前,几名公司研究人员向董事会发出了一封信,警告称一项强大的人工智能(AI)发现可能威胁人类。而这可能是造成奥尔特曼被罢免的催化剂之一。

△OpenAI表示:没有了员工,OpenAI什么都不是。

CEO与董事会沟通中,隐瞒了什么?

11月,科技界最劲爆的新闻莫过于美国人工智能公司OpenAI首席执行官、ChatGPT之父萨姆·奥尔特曼的风波。

11月17日,OpenAI发表了一篇博文,宣布CEO山姆·奥尔特曼将离开公司,任命立即生效。这篇博文措辞严厉,“奥尔特曼先生在与董事会的沟通中没有保持坦诚,阻碍了董事会履行其职责的能力。董事会不再对他继续领导OpenAI持有信心。”

CEO究竟对董事会隐瞒何事?事件各方均未言明,而业界普遍猜测,是在“AI安全和发展”的策略上,双方存在分歧。

△OpenAI宣布奥尔特曼回归CEO岗位

接下来几天,事件发展逐渐对奥尔特曼有利,公司大量员工要求董事会成员辞职,奥尔特曼重返OpenAI担任CEO。

看似人事变动风波已然平息,一则消息在23日释放出来——人事风波发生前,几名公司研究人员向董事会发出了一封信,警告称一项强大的人工智能(AI)发现可能威胁人类。

有消息人士透露称,奥尔特曼被突然解雇,可能与该公司秘密研究的项目——Q*(发音为Q-star,即Q星)有关,而一些员工认为Q星可能是该公司探索AGI(通用人工智能)获得的突破性成果。据称,Q星可以解决小学数学问题,这点燃了董事会的紧张情绪——奥尔特曼是否在研发方面过于激进。而该公司首席技术官穆拉蒂随后也在一份发送给员工的备忘录中承认了Q星项目的存在。

“Q星”是希望之星,还是……

“Q星”能解区区“小学数学问题”,为何让科技大咖们如此紧张?目前,以ChatGPT为代表的生成式人工智能,仍是从它所积累的“传统智慧的统计数据”中抽出一些“连贯的文本线索”。简单地说,就是它通过预测下一个单词来进行写作和语言翻译,给出符合人类预期的答案。因此,它的安全威胁相对可控。

Q星项目,是另一套逻辑。有业内人士从Q星项目的命名看出端倪,这可能是Q-learning和A*搜索的结合。据介绍,Q-learning是AI强化学习方式中的一种,让AI通过反复试验来学习做出决策的方法。与OpenAI现行训练AI的方法不同,Q-learning不需要依赖人类反馈进行学习,而是自行完成所有的操作和训练。

毫无疑问,“Q星”具有强大的进化潜力,将其视为人工智能领域的“希望之星”也不为过。然而,当OpenAI的巨量算力向其注入,它的进化速度可能是一个“突变”而非“渐变”的过程。当AI超越人类智慧,而人类无法可靠控制AI系统,安全风险不容忽视。

人类需要更先进的AI,还是更安全的?

早在今年10月,OpenAI的官网悄然更改了其“核心价值观”列表。此前,“大胆、深思熟虑、朴实无华、影响力驱动、协作、以增长为导向”是公司沿用已久的价值观。而在新的列表中,“聚焦AGI”赫然列在首位,“深思熟虑”被踢出列表。

奥尔特曼曾在公司博客文章中就写道,AGI(通用人工智能)可以广义地定义为“通常比人类更聪明的系统”。后来,他在接受媒体采访时,又稍稍降低了AGI的功能评级,将其定义可以“相当于一个中等水平人类,可以雇用作为同事”。这一表述上的细微差别,也透露出当AI超越人类,并不一定是一件好事。

如今,科技界对AGI的安全性仍然存在分歧。为了找出如何阻止AI失控的方法,今年7月,OpenAI首席科学家及董事伊尔亚·苏茨克维组建了一个叫“超级对齐”(Superalignment)的团队,意在令超级智能与人类价值观和认知保持一致。该项目预计投入20%的算力资源、花费4年的时间,解决AI安全问题。然而,从项目进展的角度,可能是AGI进化的速度更快一步。

向着AI快速进化的方向迈进,人类真的会走向美好吗?答案仍是未知。

△马斯克评论:极度令人担忧

科技大咖马斯克就有关于OpenAI在AGI领域新突破的报道置评称,“极度令人担忧!”

现代快报+记者 是钟寅 综合环球时报、红星新闻、界面新闻

百年之后,人类再看这段OpenAI的“宫斗大戏”,或许会从商战之外,看到2023年的人类面对未知世界忧心忡忡。

是否要继续投入资源,催动AI进化?身处2023年的人类,并未形成共识。即便是全球顶尖的科技公司OpenAI,管理层的观点也有分歧。据媒体援引知情人士消息,在CEO奥尔特曼被罢免之前,几名公司研究人员向董事会发出了一封信,警告称一项强大的人工智能(AI)发现可能威胁人类。而这可能是造成奥尔特曼被罢免的催化剂之一。

△OpenAI表示:没有了员工,OpenAI什么都不是。

CEO与董事会沟通中,隐瞒了什么?

11月,科技界最劲爆的新闻莫过于美国人工智能公司OpenAI首席执行官、ChatGPT之父萨姆·奥尔特曼的风波。

11月17日,OpenAI发表了一篇博文,宣布CEO山姆·奥尔特曼将离开公司,任命立即生效。这篇博文措辞严厉,“奥尔特曼先生在与董事会的沟通中没有保持坦诚,阻碍了董事会履行其职责的能力。董事会不再对他继续领导OpenAI持有信心。”

CEO究竟对董事会隐瞒何事?事件各方均未言明,而业界普遍猜测,是在“AI安全和发展”的策略上,双方存在分歧。

△OpenAI宣布奥尔特曼回归CEO岗位

接下来几天,事件发展逐渐对奥尔特曼有利,公司大量员工要求董事会成员辞职,奥尔特曼重返OpenAI担任CEO。

看似人事变动风波已然平息,一则消息在23日释放出来——人事风波发生前,几名公司研究人员向董事会发出了一封信,警告称一项强大的人工智能(AI)发现可能威胁人类。

有消息人士透露称,奥尔特曼被突然解雇,可能与该公司秘密研究的项目——Q*(发音为Q-star,即Q星)有关,而一些员工认为Q星可能是该公司探索AGI(通用人工智能)获得的突破性成果。据称,Q星可以解决小学数学问题,这点燃了董事会的紧张情绪——奥尔特曼是否在研发方面过于激进。而该公司首席技术官穆拉蒂随后也在一份发送给员工的备忘录中承认了Q星项目的存在。

“Q星”是希望之星,还是……

“Q星”能解区区“小学数学问题”,为何让科技大咖们如此紧张?目前,以ChatGPT为代表的生成式人工智能,仍是从它所积累的“传统智慧的统计数据”中抽出一些“连贯的文本线索”。简单地说,就是它通过预测下一个单词来进行写作和语言翻译,给出符合人类预期的答案。因此,它的安全威胁相对可控。

Q星项目,是另一套逻辑。有业内人士从Q星项目的命名看出端倪,这可能是Q-learning和A*搜索的结合。据介绍,Q-learning是AI强化学习方式中的一种,让AI通过反复试验来学习做出决策的方法。与OpenAI现行训练AI的方法不同,Q-learning不需要依赖人类反馈进行学习,而是自行完成所有的操作和训练。

毫无疑问,“Q星”具有强大的进化潜力,将其视为人工智能领域的“希望之星”也不为过。然而,当OpenAI的巨量算力向其注入,它的进化速度可能是一个“突变”而非“渐变”的过程。当AI超越人类智慧,而人类无法可靠控制AI系统,安全风险不容忽视。

人类需要更先进的AI,还是更安全的?

早在今年10月,OpenAI的官网悄然更改了其“核心价值观”列表。此前,“大胆、深思熟虑、朴实无华、影响力驱动、协作、以增长为导向”是公司沿用已久的价值观。而在新的列表中,“聚焦AGI”赫然列在首位,“深思熟虑”被踢出列表。

奥尔特曼曾在公司博客文章中就写道,AGI(通用人工智能)可以广义地定义为“通常比人类更聪明的系统”。后来,他在接受媒体采访时,又稍稍降低了AGI的功能评级,将其定义可以“相当于一个中等水平人类,可以雇用作为同事”。这一表述上的细微差别,也透露出当AI超越人类,并不一定是一件好事。

如今,科技界对AGI的安全性仍然存在分歧。为了找出如何阻止AI失控的方法,今年7月,OpenAI首席科学家及董事伊尔亚·苏茨克维组建了一个叫“超级对齐”(Superalignment)的团队,意在令超级智能与人类价值观和认知保持一致。该项目预计投入20%的算力资源、花费4年的时间,解决AI安全问题。然而,从项目进展的角度,可能是AGI进化的速度更快一步。

向着AI快速进化的方向迈进,人类真的会走向美好吗?答案仍是未知。

△马斯克评论:极度令人担忧

科技大咖马斯克就有关于OpenAI在AGI领域新突破的报道置评称,“极度令人担忧!”

现代快报+记者 是钟寅 综合环球时报、红星新闻、界面新闻

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。

热门文章