实现AI技术安全发展,需要更完善的监管与治理
近日,OpenAI董事会突然宣布创始人兼首席执行官萨姆·阿尔特曼将离开公司,这一消息震惊了硅谷。OpenAI以其革命性的ChatGPT引发了全球新一轮人工智能热潮,阿尔特曼则被视为领军人物。目前,这场纷争还在继续,据报道OpenAI超过700名员工联署敦促董事会恢复阿尔特曼的职位,否则会集体跳槽。
硅谷曾发生很多关于创始人与董事会之间的斗争故事,比如乔布斯、马斯克等,这些富有个性的创始人在技术、商业等运营路线方面难免与追求利益的投资者产生分歧和冲突。但是,OpenAI的这场“内斗”具有一定特殊性。由于人工智能(AI)技术本身具有很大争议,而OpenAI不管是在组织创新、发展理念等方面都具有引领性的探索角色,因此,这不是一场普通的“内斗”,而是代表了该行业在AI领域寻求共识的一种努力。
这是一场理念的冲突。OpenAI创始之初定位于非营利人工智能研究机构,强调自身的公益性。但是,AI研究需要大量的硬件投资,公司在2019年实施了以人类福祉为核心使命的创新组织模式,分解成了OpenAI Inc.和OpenAI LP,前者仍然由非营利组织控制,后者则是一个有盈利上限的公司,前者组建董事会并管理后者。这也是OpenAI董事会能够撤销阿尔特曼的原因,尽管是他自己帮助建立并公开推动了这一董事会结构。建立这种架构的一个重要目的是保持OpenAI的独立性,避免为了商业利益而忽略人工智能的安全问题。
随着ChatGPT的不断升级,AI的安全问题成为焦点。今年上半年,美国一批科学家和企业家联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,以确保人类能够有效管理其风险。一部分人认为,如果没有做好准备,人类可能面临超级智能统治世界并消灭人类文明的前景。阿尔特曼代表了追求商业利益优先而淡化安全问题的一派,因此,他被主要由科学家组成的董事会开除。
AI安全性与商业化之间如何保持平衡是一个公共问题,需要国家拿出治理方案。OpenAI的理想主义让其确立非营利性原则,同时作为行业引领者又要承担安全责任,从一开始就肩负了为人类未来着想的责任。但是,全球各国并没有拿出具体的AI安全治理方案,在这种背景下,商业资本与科技精英疯狂涌入人工智能领域,不顾及安全问题而肆无忌惮地发展技术。这令OpenAI陷入被动:当它继续坚持非营利性,在与拥有充沛资金投入研发和硬件的对手竞争时就会处于劣势;如果它坚持安全原则而放缓技术升级的脚步,则可能会给对手制造超越的时间窗口。
是坚持理想主义还是跟随世界商业潮流,两种不同的理念冲突造成了OpenAI“内斗”。首先,是理想主义的理念催生了OpenAI。AI大模型并未诞生于谷歌、微软等硅谷巨头,OpenAI既不是科研组织,也不是商业公司,而是一种新的组织创新,由于非营利性原因,可以不用背负商业目标进行自由探索,最终引领了AI前沿技术浪潮,这是理念力量驱动与组织创新结合的产物。就如马斯克成立SpaceX就是建立在使人类成为一个多星球物种的理念之上,从而试图超越缺乏商业动机和创新精神的NASA,推动太空探索计划更快地向前发展。
在人类发展历史上,商业成为驱动技术产生与发展的重要因素。AI技术的发展同样需要大规模的投入,如果要保持技术的领先地位就需要大规模的商业应用,通过利润持续反哺研发,阿尔特曼希望走这条道路。但是,AI的确也存在巨大的安全风险,这需要各相关国家和国际组织及时制定规则,让所有企业遵循同样的监管和治理,既能保持公平竞争,又确保技术发展的安全性。
但是,正是由于上述公共治理的缺乏,令具有理想主义的OpenAI承担了冲突的代价。同时这也体现了科学家的精神,他们不仅能够通过组织创新保持创新活力和无限可能性,而且能够为人类未来负责而设置底线,尤其是当政府治理缺位的时候。因此,这不是一场公司闹剧,而是AI发展史上严肃的一刻,值得世界为之思考。
(文章来源:21世纪经济报道)
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。