首页 > AI资讯 > 最新资讯 > 强化学习之父入局AGI创业!联手传奇程序员卡马克,不依赖大模型

强化学习之父入局AGI创业!联手传奇程序员卡马克,不依赖大模型

新火种    2023-10-09
梦晨 发自 凹非寺量子位 | 公众号 QbitAI传奇程序员卡马克(John Carmack),与强化学习之父萨顿(Richard Sutton)强强联手了,All in AGI。2030年向公众展示通用人工智能的目标是可行的。并且与主流方法不同,不依赖大模型范式,更追求实时的在线学习。两人在萨顿任教的阿尔伯塔大学机器智能研究所(Amii)特别活动上宣布了这一消息。萨顿会加入卡马克的AI创业公司Keen Technologies,同时保持在阿尔伯塔的教职。两人在活动中都承认,与拥有成百上千员工的大公司相比,Keen Technologies的团队规模很小。目前还在刚起步阶段,公司整个技术团队都到了现场——只有站着的这4个人。其融资规模2000万美元,与OpenAI、Anthropic这样动辄几十亿的也没法比。但他们相信,最终AGI的源代码是一个人就能编写的量级,可能只有几万行。而且当前AI领域正处在杠杆效应最大的特殊时刻,小团队也有机会做出大贡献。传奇程序员与强化学习之父卡马克的传奇经历,从开发世界第一款3D游戏,到转型造火箭,再到加入Oculus成为后来Meta VR关键人物的故事都已被人熟知。后来他与AI结缘,还和OpenAI有关。他曾在另一场访谈中透露,Sam Altman曾邀他加入OpenAI,认为他能在系统优化方面发挥重要作用。但卡马克当时认为自己对机器学习范式的现代AI没有任何了解,也就没有答应。这却成了他开始了解AI的一个契机。他向OpenAI的首席科学家Ilya Sutskever要了一个入门必读清单,从头开始自学,先对传统机器学习算法有了基本的了解。等有了空闲,打算继续涉足深度学习的时候,他来了个一周编程挑战:打印几篇LeCun的经典论文,在断网情况下动手实践,从推反向传播公式开始。一周过去后,他带着用C++手搓的卷积神经网络结束闭关,没有借助Python上的现代深度学习框架。只能说佩服大神了。此时他的主业还是在Facebook(后改名Meta)旗下Oculus研究VR,带领团队推出了Ouclus Go和Quest等产品。不过这个过程中,他与公司管理层之间也逐渐产生矛盾和分歧,认为公司内部效率低下,也曾公开发表不满。2019年,他辞去Oculus CTO职位转而担任“顾问CTO”,开始把更多精力转向AI。2022年8月,他宣布新AI创业公司Keen Technologies宣布融资2000万美元,投资者包括红杉资本,GitHub前CEO Nat Friedman等。后续他也透露,其实区区2000万美元,自己就拿得出手。但是从别人那里拿钱能给他一种危机和紧迫感,有更强烈的决心把事情做好。2022年底,他正式离开Meta,并将VR视为已经过去的一个人生阶段,接下来完全转向AI。除了这条明面上的主线之外,卡马克与AI还有一些莫名的缘分。当年他的3D游戏激发了对图形计算的需求,GPU也是从游戏领域开始发展壮大。到如今正是GPU的算力支持了AI的爆发,他谈到这些时仍为自己的贡献感到自豪。……今天的另一位主角萨顿也同样是位传奇人物。他被誉为强化学习之父,为强化时间差异学习和策略梯度等方法做出重要贡献,也是强化学习标准教科书的合著者。2017年他以杰出科学家身份加入DeepMind,参与了AlphaGo系列研究,他的学生David Silver则是AlphaGo主要负责人之一。萨顿写过一篇著名短文The Bitter Lesson,认为试图把人类经验教给AI是行不通的,至今为止所有突破都是依靠算力提升,继续利用算力的规模效应才是正确道路。两人正式交流之前,卡马克就曾表达过对这篇文章的关注和认同。但两人真正直接交流,是萨顿主动联系的。几个月前,卡马克宣布AGI创业公司融资之后,收到了萨顿的邮件。萨顿想要问他他在研究的道路上应该走纯学术、商业化还是非盈利组织路线的问题。但在后续邮件交流中,两人发现在AI研究方向和理念上存在惊人的一致性,渐渐确立了合作关系。具体来说,两人达成了4个共识:都认为当前AGI发展被限制在很窄的几个方向上,过多依赖大数据和大算力而忽视了创新都认为太早商业化会阻碍AGI的发展都认为最终AGI不会太复杂,一个人就能掌握全部原理,甚至一个人就能写出主要的代码。都认为2030年出现AGI原型是一个可行的目标。不只依赖大模型,小团队也有机会很大胆的目标,现场观众也是这么认为的。面对“小团队如何搞定这么宏大的目标”的提问,卡马克认为实现AGI所需的数据量和算力需求可能没有想象中那么大。把人类一整年眼中所见拍成每秒30帧的视频,可以装在拇指大小的U盘里。而1岁儿童只拥有这么多经验数据,已经展现出明显的智能。如果算法对了,就不需要用整个互联网的数据让AGI去学习。对于算力需求,他也是用这种直觉式的思维去考虑:人脑的计算能力也有限,远远达不到一个大型算力集群的程度。比一个服务器节点(node)要大,也比一个机柜(rack)要大,但最大也就再高出一个数量级。而且随着时间推移,算法会更加高效,所需的算力还会持续下降。如果说卡马克在3D游戏、火箭和VR,这些看似不搭边的工作领域上有什么共同点,那就是对大型实时反馈系统的优化。这也是当初Sam Altman邀请他加入OpenAI时看中的地方。他设想中的AGI架构应该是模块化和分布式的,而不是一个巨大的集中模型。学习也应该是持续的在线学习,而不是现在的预训练之后大部分参数就不再更新。我的底线是,如果一个系统不能以30hz的频率运行,也就是训练时33毫秒左右更新一次,我就不会用它。他进一步表示,作为能自己写原始Cuda代码和能自己管理网络通信的底层系统程序员,可能会去做一些其他人根本不会考虑的工作。甚至不仅局限于现有的深度学习框架,会尝试更高效的网络架构和计算方法。总体目标是模拟一个具有内在动机和持续学习能力的虚拟智能体,在虚拟环境中持续学习。不要机器人,因为制造火箭的经历让他认为打交道的物理对象越少越好。与卡马克刚涉足AGI不久相比,萨顿在这个问题上已经花费了几十年,他有更具体的研究计划。虽然这次活动上没有说太多,但主体部分已经以“阿尔伯塔计划”的形式写在一篇arXiv论文里。阿尔伯塔计划提出了一个统一的智能体框架,强调普遍经验而不是特殊的训练集,关注时间一致性,优先考虑能随算力产生规模效应的方法,以及多智能体交互。还提出了一个分为12步的路线图。前6步专注于设计model-free的持续学习方法,后6步引入环境模型和规划。其中最后一步称为智能增强(Intelligence Amplification),一个智能体可以根据一些通用原则,利用它所学到的知识来放大和增强另一个智能体的行动、感知和认知。萨顿认为这种增强是充分发挥人工智能潜力的重要组成部分。在这个过程中,确定评估AI进步的指标非常重要但也十分困难,团队正在探索不同的发展。另外,卡马克一直是开源的倡导者,但在AGI的问题上他表示会保持一定开放性,但不会全部公开算法细节。作为一个小团队,卡马克认为需要保持开拓精神,关注长远发展而不是短期利益,不会过早考虑商业化,没有像ChatGPT这样可以公开发布的中间形态。对于2030年能做到什么地步,卡马克认为“有可以向公众展示的AGI”,萨顿的表述是“AI原型可以显示出生命迹象(signs of life)”。2030成关键节点2030与AGI,并不是第一次同时出现。顶尖AI团队不约而同都把2030年前后作为实现AGI的关键节点。比如OpenAI,在拿出20%总算力成立超级智能对齐部门的公告里写着,我们相信超级智能在这个十年段到来。甚至投资界也出现类似的观点,孙正义刚刚在软银世界企业大会上也拿出来这样一张PPT。除了OpenAI和Keen Technologies,致力于开发AGI的组织并不多。OpenAI最大的竞争对手,刚刚拿40亿美元融资的Anthropic,其CEO Dario Amodei在最近一次访谈中提到,两三年内AI能表现得像一个受过良好教育的人类。Transformer作者Vaswani与Palmer离开谷歌时,创办了AdeptAI,目标也是打造通用智能。不过目前两人今年初突然离开这家公司,联合创始人中只留下一位David Luan(最右)。两位Transformer作者另外创办了一家Essential AI,这家公司的愿景就没那么“仰望星空”了,是比较务实的大模型商业化。国内方面明确喊出AGI目标的同样也不多,主要有MiniMax和杨植麟新创办的月之暗面。参考链接:[1]https://www.amii.ca/latest-from-amii/john-carmack-and-rich-sutton-agi/[2]https://www.youtube.com/watch?v=uTMtGT1RjlY[3]https://arxiv.org/abs/2208.11173
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。