10人团队融了10亿美元,Ilya最新访谈:ScallingLaw并非一成不变
公司刚10人,种子轮融资就融了10亿美元。
这种惊掉人下巴的事儿,也只有发生Ilya Sutskever身上,才稍显“正常”。
Ilya,在大模型席卷全球的当下,他的贡献被公认为达到了改变世界的级别:
他是AlexNet三位作者之一,和恩师Hinton一起被挖到谷歌之后,又深度参与了震惊世界的AlphaGo项目。
2015年,他参与了OpenAI的创立,出任首席科学家。ChatGPT再次改变世界,他被认为是背后最关键的人物之一。
从去年11月至今,Ilya的一举一动更是被推到台前,受到全球科技圈的瞩目:
由他发动的OpenAI董事会内讧揭开大模型发展路线之争,而他在今年5月与OpenAI彻底分道扬镳之后,所有人都在等待他的下一步创业动向。
现在,尘埃初定。一向低调的Ilya本人,也在这个时间点上,同外界分享了更多有关他的公司SSI,以及他本人对AGI思考的信息。
在与路透社的交流中,Ilya回答了关键的6个问题。以下,原文奉上:
为什么创立SSI?我们已经发现了一座与我之前的工作有些不同的“大山”……一旦你登上这座山的顶峰,范式就会改变……我们所知的关于人工智能的一切都将再次改变。
到那时,超级智能安全工作会变得非常关键。
我们的第一个产品将会是安全的超级智能。
在超级智能之前,会发布和人类一样智能的AI吗?我认为关键在于:它是否安全?它是否是世界上一股向善的力量?我认为,当我们做到这一点时,世界将会发生很大的变化。因此现在就给出“我们将要做什么”的明确计划是相当困难的。
我可以告诉你的是,世界将会变得非常不同。外界对AI领域正在发生的事情的看法将会发生巨大变化,并且很难理解。这将是一场更加激烈的对话。这可能不仅取决于我们的决定。
SSI如何判定何为安全的人工智能?要回答这个问题,我们需要开展一些重要的研究。特别是如果你和我们一样,认为事情会发生很大变化……很多伟大的想法正在被发现。
很多人都在思考,当AI变得更加强大时,需要对其采取哪些测试?这有点棘手,还有很多研究要做。
我不想说现在已经有了明确的答案。但这是我们要弄清楚的事情之一。
关于尺度假设和AI安全每个人都在说“尺度假设”,但每个人都忽略了一个问题:我们在scaling什么?
过去十年深度学习的巨大突破,是一个关于尺度假设的特定公式。但它会改变……随着它的改变,系统的能力将会增强,安全问题将变得最为紧迫,这就是我们需要解决的问题。
SSI会开源吗?目前,所有人工智能公司都没有开源他们的主要工作,我们也是如此。但我觉得,取决于某些因素,会有很多机会去开源超级智能安全工作。也许不是全部,但肯定会有一些。
对其他AI公司安全研究工作的看法实际上,我对业界有很高的评价。我认为,随着人们继续取得进展,所有公司都会意识到——可能是在不同的时间点——他们所面临的挑战的本质。因此,我们并不是认为其他人都做不到,而是说,我们认为我们可以做出贡献。
10亿美元用来干什么最后,补充一些Ilya话外的背景信息。
SSI的消息最早在今年6月释出,目标很明确,搞Ilya在OpenAI没干成的事:构建安全超级智能。
目前SSI只有10名员工,融完资后,计划利用这笔资金买算力并聘请顶尖人才——
认同他们的理念,已经做好AI有一天会超越人类智能的心理准备的那种。
联合创始人Daniel Gross还透露,他们并不过分看重资历和经验,反而会花好几个小时审查候选人是否具有“良好的品格”。
算力方面,SSI计划和云厂商及芯片公司开展合作,具体和哪些公司合作、怎么合作尚未明确。
除了Ilya本人之外,SSI的联创还有Daniel Gross和Daniel Levy。
△左:Daniel Gross;右:Daniel Levy
Daniel Gross毕业于哈佛大学计算机系,此前也是Y Combinator的合伙人之一,也曾创办或参与创办了多家公司,包括Citrus Lane、WriteLaTeX(后更名为Overleaf)等。
他被《时代100》杂志列为“人工智能领域最具影响力的人物”之一。
Daniel Levy则毕业于斯坦福计算机系,此前是OpenAI优化团队的负责人。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。