首页 > AI资讯 > 行业应用 > 时评丨OpenAI宫斗背后:资本驱动AI狂飙被伦理“闪了一下腰”

时评丨OpenAI宫斗背后:资本驱动AI狂飙被伦理“闪了一下腰”

新火种    2023-11-28

上周末,美国人工智能公司OpenAI的创始人兼CEO山姆·奥特曼突然被董事会解雇,这一重磅消息在整个科技圈引起了轩然大波。随后,包括微软在内的多家投资机构向董事会施压,要求恢复奥特曼的职位。后续事态的发展就犹如一场宫斗大戏,在短短的几天时间里,这家拥有ChatGPT的全球人工智能头部企业,经历了解雇CEO、任命临时CEO、更换临时CEO、再到奥特曼重新回归担任CEO等一系列动荡。在这充满一波三折的戏剧性的背后,人们在关心这家头部人工智能公司后续发展的同时,更加关注整个人工智能行业未来的发展,正如特斯拉及SpaceX的CEO埃隆·马斯克所说的,奥特曼的被解雇是否与OpenAI出现了对人类安全有威胁的事情有关。

据彭博社的报道,奥特曼被解雇可能是由与OpenAI首席科学家伊尔亚·苏茨克维发展理念不符所导致的。苏茨克维认为OpenAI的首要任务“不是构建下一个GPT或DALL-E,而是找出如何阻止AI失控的方法”。相反,奥特曼却醉心于商业化,通过不断推出新的功能,涉足更多的领域,来筹集资金和扩大规模。在11月7日OpenAI首个开发者大会上,奥特曼发布了具有更长上下文、更新知识库的迄今为止最强的GPT-4 Turbo以及可以定制化的GPTs。同时,奥特曼表示OpenAI正在开发下一代人工智能模型GPT-5。这些举措都与苏茨克维的理念相违背。他们关于商业发展与安全监管的理念分歧也折射出了当前整个人工智能行业发展的问题。

大模型需要大算力,没有资本的巨大投入将难以实现大规模的运算。在目睹ChatGPT的成功后,各大资本纷纷进场。在资本的推动下,整个科技行业对大模型的研发热潮涌动。硅谷新成立了许多大模型公司,中国互联网大厂也都陆续推出了自己的大模型产品,还有许多垂直领域的大模型应用正在层出不穷的涌现。然而,资本最终是要逐利的。持续的巨大投入、日趋激烈的竞争环境,都会给商业变现带来挑战。为了抢占行业制高点,资本狂飙突进,狂热地追求技术进步,一切限制技术发展的行为都将被忽略,而至关重要的AI安全问题、人工智能价值观对齐问题都被置若罔闻了。毕竟“天下武功,唯快不破”,没有谁愿意在逆水行舟的竞争环境中首先停下来。

可是,安全是一个必须直面的问题。11月1日至2日,全球首次人工智能安全峰会在英国召开,会议地点选在了“人工智能之父”阿兰·图灵发明第一代图灵计算机的布莱切利庄园。这一充满意义的会议选址也彰显了在新的起点上人类需要重新思考人工智能未来的发展问题。

目前,对前沿人工智能可能存在的风险,AI业界还存在争论。“人工智能三巨头”、图灵奖得主杰弗里·辛顿和约书亚·本吉奥认为AI技术可能会引发危险的“末日论”。而同为“人工智能三巨头”、图灵奖得主的杨立昆以及斯坦福大学教授吴恩达等人则认为没有任何证据表明AI技术将会灭绝人类,对末日论的过度恐惧会扼杀创新。虽然对未来人工智能模型能否构成人类生存威胁的担忧还存在争议,但是对当前人工智能带来的网络安全、生物技术和加剧传播虚假信息等方面的风险大家却达成了广泛共识。为应对人工智能技术的滥用与失控,英国成立了全球首个人工智能安全研究所,用以开发和评估先进的人工智能系统,推动基础人工智能安全研究。OpenAI则拿出五分之一的算力用于安全研究,用以研发超级智能对齐,来保证人类对超级智能的可控。

未来已来。正如《OpenAI宪章》所说,我们致力于开展确保AGI安全所需要的研究,并推动AI领域广泛采用这些研究。诚然,能造福全人类的AGI才是我们人类所需要的。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。