OpenAI与AI的未来:资本主义的胜利?监管机构正竖起耳朵
·“资本主义团队获胜。利维坦团队输了。”
·“围绕山姆·奥特曼发生的这出戏剧告诉我们,我们不能依赖这些公司有远见的首席执行官或形象代言人,相反,我们需要监管。”
OpenAI高层人事震荡事件持续近5天后,回到了原点——联合创始人山姆·奥特曼回归公司担任首席执行官,但又没有回到原点——董事会大换血。这两个因素将决定OpenAI未来的走向。
奥特曼被罢免的真正原因仍然未知,尽管传言和阴谋论盛行,让人们掀开布帘一角希望窥视他的另一面。同时,新上台的董事会预计将更关注技术进步与营利前景而不是安全问题,并可能与微软展开更紧密的合作。全世界的监管机构正密切观察事态变化,至少有些人已经更加明白:指望企业监督自我是不可靠的。
也就是说,OpenAI的管理层没变,但人工智能行业已经永久改变了。
精英的“老男孩俱乐部”
OpenAI的新董事会最初由3人组成:问答网站Quora的首席执行官、旧董事会唯一的留任者亚当·德安杰洛(Adam D’Angelo),Facebook和Salesforce前高管布雷特·泰勒(Bret Taylor),以及美国前财政部长劳伦斯·萨默斯(Lawrence H. Summers)。有点像精英的“老男孩俱乐部”。
OpenAI的新董事会(从左至右):Quora首席执行官亚当·德安杰洛、美国前财政部长劳伦斯·萨默斯和Facebook和Salesforce前高管布雷特·泰勒。
董事会人数预计将增加。OpenAI最大的投资者微软有望在未来的治理中拥有更大发言权,可能包括拥有一个董事会席位。
推动奥特曼下台的3名董事离开董事会:OpenAI首席科学家伊利亚·苏茨克维(Ilya Sutskever)、乔治城大学安全与新兴技术中心战略总监海伦·托纳(Helen Toner)和兰德公司兼职高级管理科学家塔莎·麦考利(Tasha McCauley)。后面两位是旧董事会仅有的两名女性。
推动奥特曼下台的董事(从左至右):OpenAI首席科学家伊利亚·苏茨克维、兰德公司兼职高级管理科学家塔莎·麦考利、Quora首席执行官亚当·德安杰洛和乔治城大学安全与新兴技术中心战略总监海伦·托纳。
《纽约时报》资深科技记者凯文·鲁斯(Kevin Roose)用一句话形容这个结果:“资本主义团队获胜。利维坦团队输了。”
这句话的背景是:人工智能存在两种愿景,在一个愿景中,AI是一种变革性的新工具,就像蒸汽机、电力和个人计算机等一系列改变世界的创新,如果使用得当,可能会迎来一个繁荣的新时代,并为利用其潜力的企业创造巨大的财富。在另一个愿景中,AI更接近于一种外星生命形式——从神经网络的数学深处召唤出来的利维坦(神话中的一种怪兽)——必须极其谨慎地加以限制和部署,以防止它接管并杀死我们所有人。
鲁斯指出,苏茨克维、托纳和麦考利代表了这样一群人:学者、硅谷未来学家和计算机科学家的组合,大约从10年前开始积极参与对人工智能的思考,对这项技术感到既恐惧又敬畏,并担心理论上的“奇点”,即人工智能将在那时超出人类遏制它的能力。其中许多人隶属于有效利他主义者等哲学团体。2015年OpenAI作为非营利组织建立之初,以及2019年设计特殊的治理架构(非营利组织监视“利润上限”营利性企业)时,都遵循了这种理念。当时AI行业内的很多人认为,摆脱资本主义的影响是当务之急,需要将其写入公司章程和组织文件中。(详见《有效利他主义与现实:OpenAI革命性的治理模式已死?》)
但自从ChatGPT发布后,它已经变成了一个周用户数超过1亿的热门应用。思想实验演变成了真实产品,非营利机构在巨大的成本面前承受营利压力。正是这种矛盾,被普遍认为导致了OpenAI上周末的高层“地震”。
显然,新的董事会成员都是有着丰富商业经验的老手。泰勒是一位老练的硅谷交易撮合者,去年他在担任Twitter董事会主席时主导了将Twitter出售给特斯拉首席执行官埃隆·马斯克(Elon Musk)。萨默斯是著名的经济学家,曾表示相信技术变革对社会有“净利益(Net Good)”。他们是治理一家商业机构的合适人选。
当奥特曼在过去一年环游世界,警告媒体和政府有关人工智能的风险时,他反复强调OpenAI不同寻常的非营利治理结构,以此作为针对强大人工智能不负责任发展的防火墙。在董事会这边,如果奥特曼开始做出危险的或违背人类利益的行为,就可能驱逐他。
然而,OpenAI此次高层动荡事件恰恰以事实证明,董事会其实无法驱逐奥特曼。不仅如此,董事会自己都被颠覆了。
奥特曼的暗面
截至目前,罢免奥特曼的原因还没有一个确切说法。
OpenAI在宣布罢免奥特曼时表示,他“与董事会的沟通并不一贯坦诚,阻碍了董事会履行职责的能力。”OpenAI的一份内部备忘录后来澄清说,驱逐奥特曼“并不是为了处理渎职行为”。一度被定为临时首席执行官的埃米特·谢尔(Emmett Shear)在接受这一职位后写道,他曾询问为何奥特曼被免职。“董事会并没有因为任何具体的安全分歧而将山姆解职。”他写道。在奥特曼回归后,该公司承诺将对他被解雇的原因展开调查。
这种模糊说辞给大量传言制造了空间,其中一些可能是阴谋论。
最初的猜测是奥特曼在副业项目上投入了太多时间,比如他正在与中东投资者商讨建立一个人工智能芯片公司。
11月22日,两家媒体又爆出,在奥特曼被罢免4天之前,几位研究人员向董事会发出一封信,警告称一项强大的人工智能发现可能威胁人类——被称为Q*的模型。其能力意味着人工智能将拥有类似于人类智能的更强推理能力。一些OpenAI员工担忧在将这种先进的人工智能模型商业化时没有适当的保障措施。
还有很多传言聚焦于奥特曼本人。几天前,马斯克声称收到一份关于OpenAI的信件,“(里面提到的)这些问题似乎值得调查。”信件很快被从网站上删除。但据此前看到信件的人说,这是OpenAI前员工写给董事会的。他们陈述了对奥特曼和前总裁格雷格·布罗克曼(Greg Brockman)的不满,列出“七宗罪”,包括“不安的欺骗和操纵模式”。
马斯克分享一份关于OpenAI的信件,陈述了员工对奥特曼和前总裁布罗克曼的不满。
更重磅的是《华盛顿邮报》11月22日的一篇报道。报道称,据3名知情人士透露,4年前,奥特曼的导师、YCombinator创始人保罗·格雷厄姆 (Paul Graham)从英国飞往旧金山解雇了奥特曼的总裁职位,因为格雷厄姆担心奥特曼将自己的利益置于组织之上。
该报道称,两位知情人士表示,奥特曼因优先考虑个人事务而不是公务而闻名,而且他的缺勤行为激怒了同事和一些他本应培育的初创企业。另一个担忧是,奥特曼亲自投资了他通过孵化器发现的初创企业,使用的是他与兄弟杰克共同创建的基金——这是一种为了个人致富而进行的双重投资。
尽管许多媒体将奥特曼的罢免归咎于安全考虑与商业利益之间的意识形态斗争,但一位熟悉董事会程序的人士表示,罢免根源于担心奥特曼试图避免董事会对其权力进行任何检查。他不愿意接受任何不偏向于他的董事会人员构成。
在硅谷,这种冲突也不少见。因为那里弥漫着崇尚“神童”的文化,个人崇拜和人脉经常取代更强大的管理护栏。刚刚倒台的前加密货币交易所FTX的创始人山姆·班克曼-弗里德(Sam Bankman-Fried)就是一个例子,他所犯下的七项罪名就是在神童光环下被众多人所忽视的。但熟悉奥特曼的6位科技界人士告诉《华盛顿邮报》,奥特曼的个人特质有时会导致他疏远一些最亲密的盟友,尤其是人们认为他即使对于硅谷的积极进取文化来说也过于机会主义。
奥特曼还被指责对人实施一种持续而微妙的操纵。OpenAI前员工、机器学习研究员杰弗里·欧文(Geoffrey Irving)现供职于竞争对手谷歌DeepMind,他本周在X上发帖称,在为奥特曼工作了两年后,他不愿意支持奥特曼。“1.他总是对我很好。2. 他在不同场合对我撒谎。3. 他具有欺骗性、操纵性,对其他人更糟糕,包括我的亲密朋友(同样,出于某种原因,他只对我很好)。”
在这些传闻与报道中,一个远不够完美的奥特曼形象浮现出来,给OpenAI的未来带来了一些不确定性。
道德资本主义的真面目
在连续5天对OpenAI事件的密切关注中,有一个因素很大程度上被忽视了——监管机构的看法。
美国政治新闻媒体POLITICO评论称,无论接下来事态如何发展,这场混乱都可能会影响国会和拜登政府处理人工智能监管的方式。
自从ChatGPT引发华盛顿对人工智能的新关注以来,奥特曼一直扮演着国会人工智能指南的核心角色。他5月在参议院的证词受到了两党的一致赞扬,立法者称赞他“真诚”地希望帮助制定新的人工智能规则。现在,他们对奥特曼还有多少信任?
今年5月,奥特曼在美国国会作证。
微软在此次高层动荡中发挥了巨大的影响力,如果其在人工智能领域的影响力增长,就会引发有关反垄断的新担忧。
同时,这场“政变”也可能会提高华盛顿对先进人工智能带来的风险的兴趣,或者使包括有效利他主义和长期主义在内的意识形态变得不可信。硅谷的人工智能专家对于先进人工智能风险的分歧越来越大,斗争双方已经在华盛顿争夺影响力。(详见《观察|美国监管AI背后:哪个政府机构牵头?AI四大门派听谁的?》)
美国创新基金会执行董事扎克·格雷夫斯(Zach Graves)表示,华盛顿如何回应未来有关人工智能风险的争论,将取决于OpenAI董事会选择罢免奥特曼的原因。如果原因真的是因为安全问题,包括“通用人工智能”可能取得的进展,政策制定者可能会对人工智能的灾难性潜力更感兴趣。
因为目前情况不明,华盛顿人工智能领域最前沿的立法者都不愿立即发表意见。
世界各地的监管机构也将密切关注OpenAI接下来会发生什么。就在OpenAI动荡期间,欧盟具有里程碑意义的《人工智能法案》谈判正处于关键时刻,该法案可能为世界各地的监管定下基调。
近年来,欧盟已越来越多地采取更严格的方式监管大型科技公司。但欧盟官员和成员国对于是否严厉打击人工智能公司或允许一定程度的自我监管存在分歧。据路透社披露的一篇联合论文,本周,法国、德国和意大利表示,他们支持对基础模型“通过行为准则进行强制性自我监管”,这表明可以相信OpenAI和其他公司会检查自己的技术。
但对于更强有力监管的支持者来说,过去几天的事件表明,自我监管不足以保护社会。“围绕山姆·奥特曼发生的这出戏剧告诉我们,我们不能依赖这些公司有远见的首席执行官或形象代言人,相反,我们需要监管。”领导新规则谈判的欧洲议会议员布兰多·贝尼费(Brando Benifei)告诉《连线》,“这些事件向我们表明,这些企业的治理存在不可靠性和不可预测性。”
非营利组织Humane Intelligence创始人、Twitter道德人工智能团队前负责人鲁曼·乔杜里(Rumman Chowdhury)表示,OpenAI的危机和重置应该敲响警钟。这些事件表明,道德资本主义的概念——将非营利和营利实体结合在一起的公司结构——行不通,政府需要采取行动。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。