OpenAI大戏暂落幕或许更应该思考这个问题
当地时间21日晚,人工智能(AI)公司OpenAI表示,上周被董事会解雇的该公司创始人兼前CEO奥尔特曼(Sam Altman)将重新担任该公司首席执行官。和他一起退出公司的联合创始人、前董事会主席布罗克曼(Greg Brockman)也将重返公司。
过去五天内,奥尔特曼先是被突然解职,又极度接近复职,伴随谈判破裂,他突然官宣加入微软公司,但最终仍回归OpenAI。
OpenAI这场高层“内斗”大戏令越来越多人开始关注人工智能行业关于“有效加速主义”(简称为e/acc)和“末日论”的分歧,而要理解这对关系则不得不思考一个更底层的问题:AI对人类社会到底意味着什么?
“加速”与“末日论”
清华大学新闻学院元宇宙文化实验室主任、教授沈阳接受第一财经记者采访时表示,OpenAI近期事态牵扯到商业利益和观念博弈两个方面的矛盾,后者体现为,“加速派”和“末日论派”在人类与AI的关系上的分歧。
被解雇前几天,奥尔特曼曾乐观地向媒体透露,该公司正在推进GPT-5的开发,并计划从OpenAI最大的投资者微软公司获得更多的资金支持。
而本月初,OpenAI首席科学家苏茨基沃(Ilya Sutskever)在一个纪录短片中则显得更为悲观,他称:“我的感觉是,通用人类智能(AGI)的发展会出现雪崩。”
这二人的态度取向,折射出硅谷乃至全世界人工智能行业对安全与进步的分歧观点,即“有效加速主义”和“末日论”。
前者的拥趸希望通过最高效、最具影响力的技术进步与突破来加速社会、经济或技术系统的变革过程,并把风险视为变革的催化剂。而后者则更加审慎,认为一旦风险不可控,人工智能带来的巨大影响将毁灭人类社会。
作为OpenAI的创始人之一,苏茨基沃师从“人工智能教父”辛顿(Geoffrey Hinton)。他的老师曾对媒体表示:“你很难看出如何防止坏人利用它(AI)做坏事。”
苏茨基沃没有那么悲观,但他认为,人与真正自主运行的通用人工智能(AGI)之间的关系应当像人类对待动物一样。
“我们并不憎恨动物。我认为人类热爱动物,对它们充满感情,但当我们要在两个城市之间修建一条高速公路时,我们并不会征求动物的同意。我们直接就做了,因为这对我们很重要。”苏茨基沃曾说。
换言之,人类应该以这样的方式训练AI,使之为我所用,但做起来却没那么容易。苏茨基沃称:“第一批AGI的信念和愿望将极其重要,必须为其正确地编写程序。”这也就是所谓“超级对齐”的工作。
今年7月,苏茨基沃在OpenAI内部组建了一只“超级对齐团队”,并对外招募人才,以达到“让模型在最糟糕的情况下也能遵循人类的意图”等目的。
但另外一面,奥尔特曼则在加速部署OpenAI产品的商业化,扩大消费者市场。
在11月6日OpenAI召开的开发者日上,奥尔特曼宣布了一系列新功能,包括推出助理应用程序接口(API)允许构建更复杂、更智能的AI,开放GPT应用商店,允许GPT的企业和个人定制等。
Iris目前在美国硅谷从事AI方向创业、也曾在多家科技企业负责AI相关产品开发,她现场参加了这场发布会。“当时他们拿出来做展示的产品,仿佛还处在被开发者在本地计算机或服务器上运行和测试(local host)的阶段,就好像早上还在改程序错误,下午就拿来做演示了。”Iris告诉第一财经记者,“当时很大的感受是,谁还记得OpenAI在2015年建立时的使命是安全与广泛受益(safe and broadly beneficial)呢?”
商业化与安全审查
Iris认为,奥尔特曼与苏茨基沃之间关键的摩擦增大,与OpenAI的企业发展阶段关系很大。
2015年,OpenAI作为非营利组织成立,自2019年接受微软的大笔投资后,该公司转型为“利润封顶”的结构。公司仍然由非营利董事会管理,该董事会的任务不是实现股东价值最大化,而是确保创造“广泛受益”的AGI。与此同时,微软等投资者可以从OpenAI获利,但他们的利润是有上限的。超过上限的金额将会被返还给非营利机构。
她称,最早期的OpenAI,尤其是在模型研发阶段,更多以技术创新为基础,随后才开发出ChatGPT等产品。这一时期,OpenAI非常强调安全性,还必须探讨一些会对人类未来社会产生数百年影响的重大课题。因此,苏茨基沃这样技术背景出身的创始人话语权非常大。这也是OpenAI早期作为非营利组织的合理选择。
但随着技术的发展,当到产品市场匹配(Product-market fit)阶段,OpenAI更多开始考虑如何让这些技术惠及更多人,苏茨基沃自己在2019年也曾说过,“迈向AGI并不便宜”,OpenAI需要更多的资金。
而一旦商业化,“非营利”的顶却很难盖住。“OpenAI现在处于种子轮融资阶段。年初时对外宣称的估值只有290亿美元,近期融资时这个数字已增加至900亿美元。接下来,公司的发展将完全依赖于产品和业务的商业化。这意味着需要将产品更有效地推向市场。”Iris称。
2022年11月,OpenAI发布基于GPT-3的聊天机器人ChatGPT,开始较为明确地产品化。而今年11月的开发日上,OpenAI不仅在模型层上有所推进,还引入微调(fine-tuning)和检索增强生成(RAG)等基础设施层的工具,并推出了GPT应用商店和企业定制等生态层的探索,这些都在一年内发生。
“尽管从成立之初开始,OpenAI就在做自己模型的研发,但从产品开发、安全审查开始,到把新功能推向市场,让市场做检验,这一切都发生在一年间,这个速度相当快了。”Iris称,“我不知道他们节省了多少时间在安全审查上,但我认为这和他们成立之初所期待的标准,以及现在市场上其他大公司的惯常标准相比,都不够看。”
她继续说道,许多大公司对AI产品的安全审查往往要耗时一年之久,“即使产品已经准备好上市,仍需经历各种内部审批程序。比如硅谷某科技公司还会邀请顾问委员会从多个方面测试和监控该产品。只有通过了这些测试,他们才会推出新产品,而不是仅因为产品可用或有市场需求就匆忙推向市场,以此获得融资。”
奥尔特曼回归对AI行业意味着什么?
根据新的原则协议,奥尔特曼回归OpenAI后,将在新董事会的监督下工作。新董事会由前Salesforce首席执行官泰勒(Bret Taylor)担任主席、前美国财政部长萨默斯(Larry Summers)和现OpenAI董事会成员、问答平台Quora首席执行官德安吉洛(Adam DAngelo)组成。
原本董事会成员中的麦考利(Tasha McCauley)、托纳(Helen Toner)和苏茨基沃都已不见了踪影。曾与多位OpenAI雇员有过交流的Iris透露:“麦考利和托纳一直都聚焦的是AI安全,强调宁可走慢点,也要保证AI对人类的安全。苏茨基沃则认为,公司不应再扩大融资规模,因为AI自主技术已经开始令人担忧。”
董事会成员的调整是否意味着公司内部注重安全审查派的落败?奥尔特曼回归,对人工智能行业又意味着什么?
“我认为他们内部可能还在研究这件事要怎么解决。而且,即使苏茨基沃不在董事会中,也会有其他重视安全的人继续推进这方面的工作。”Iris说。
沈阳认为,OpenAI的ChatGPT在技术发展上远超过其他团队。他称,OpenAI应该按照自身的规划速度推动AI技术的进步,同时接受广泛的公众监督,特别是在安全方面。
“人类一旦知道某事是可能的,且有明确的结果,就一定可以实现它。如果OpenAI不来引领AGI的开发,可能会有黑客集团尝试,在没有公众监督的情况下,结果可能更危险。”沈阳说。
而对于AI快速商业化可能带来的潜在安全隐患,沈阳认为,以目前AI的技术水平来看,情况还没有到积重难返的地步。
“AI大模型的发展经历着从文本、语音、图像、视频、空间视频到具身智能大模型的阶段,只有具身智能大模型的上线会对世界产生巨大影响。”沈阳解释称,“但根据当前情况,如果GPT-5无法从组合式创新进步到融合式创新,它所能造成的负面影响是有限的。”
Iris认为,奥尔特曼的回归再正常不过。
“一般而言,把首席执行官换掉往往是因为营收问题,但奥尔特曼并没有在这方面出问题。对于一个创业公司最重要的事,一是团队,二是产品,而奥尔特曼是引领公司把这个饼做大的人。在他并没有失去人心的情况下把他赶下台,这个事情本身就很难成立。”她说。
(文章来源:第一财经)
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。