人工智能热潮可能正遭遇瓶颈
据美国有线电视新闻网网站11月19日报道,两年前,美国开放人工智能研究中心(OpenAI)的聊天生成预训练转换器(ChatGPT)问世,掀起了人工智能(AI)领域的“淘金热”。大量资金涌入专注研发AI及其相关产品的公司,因为这项技术将加速(也可能摧毁)现代生活的方方面面。
硅谷的说法是,AI的列车已经出站,聪明的投资者最好在这些产品变得“超级智能”并开始解决世界上所有问题之前上车。(对于真正的支持者来说,这并非夸张,正是这些期望助推芯片制造商英伟达等曾经的小众公司成为全球估值最高的资产之一。)当然,这种说法的关键之处在于,像ChatGPT这样的大语言模型有望以指数级的速度不断升级。
对AI持怀疑态度者多年来一直在警告人们注意“尺度定律”(又译“规模定律”),即只要向模型输入更多数据并提升其算力,就可以不断完善模型的输出。不过,“尺度定律”与其说是定律,不如说是有根据的猜测。事实上,即便是创建大语言模型的科学家也无法完全了解它们是如何运作的。
撞上“天花板”
最近,目前一些领先的语言模型似乎正在遭遇瓶颈。且看:
美国信息网援引不愿透露姓名的OpenAI员工的话说,该公司一些研究人员认为,该公司下一个旗舰AI模型Orion“在处理特定任务方面不一定优于前一版本”。
彭博新闻社援引两名匿名消息人士的话说,Orion“没有达到标准”,而且“到目前为止,人们认为它相对OpenAI现有模型取得的进步不如GPT-4对GPT-3.5的进步那么大”。
路透社报道称,“据三名知情人士透露,各大AI实验室的研究人员力争发布一款性能超过GPT-4模型的大语言模型,但进度一拖再拖,取得的结果也令人失望。而GPT-4模型已经推出了近两年”。
路透社还援引今年5月离开OpenAI的联合创始人伊利亚·苏茨克韦尔的话说:“本世纪10年代是规模迅速扩张的时代,而现如今,我们又回到了惊奇与发现的时代。每个人都在寻找下一个突破点。”苏茨克韦尔还说:“找对扩张方向比以往任何时候都更重要。”
就连曾写过一篇名为《为什么AI将拯救世界》的文章的风险投资家马克·安德烈森最近也在播客上表示,现有模型“在能力方面也撞上了类似的天花板”。
转折点来临
OpenAI首席执行官萨姆·奥尔特曼似乎对这些报道进行了反驳,他上周在社交平台X上称“不存在瓶颈”。
不管是瓶颈、山峰、平台期,或是其他什么说法,即便是看好AI的人也表示,根据目前发布的产品来看,我们可能已经来到一个转折点。
美国投资集团D.A.戴维森公司的常务董事吉尔·卢里亚说:“我们已经有一段时间没看到突破性模式了。部分原因是我们已经用完人类全部数据,对同样的数据进行更多计算可能不会带来更好的结果。”
这是一个偏技术的问题,但它对了解模型的局限性十分重要:为了让这些AI机器听起来像人类,我们必须用人类的数据来训练它们——大概就是用互联网上的一切文本或音频。一旦一个模型摄取所有数据,就没有什么“实际”的东西可以继续训练它了。
需要明确的是,平台期未必是AI行业的丧钟。但当华尔街已经开始对投资者何时(或是否)能指望这些光鲜亮丽、费用极高的产品带来实际收益感到不安时,肯定大事不妙。
泡沫或破裂
估值近3.5万亿美元的芯片巨头英伟达公司和其他各大AI公司可能不必马上担心“规模”问题。
卢里亚说:“就上季度和本季度对英伟达(产品)的需求而言,毫无疑问,需求已经超过了其供应能力。”但如果我们真的遇到了尺度瓶颈,“可能意味着拥有超高市值的科技企业进行了过度投资”,它们可能在不久的将来缩减规模。
这是AI乐观主义者的观点。
为了听到不那么乐观的观点,我采访了曾经直言批评AI热的纽约大学名誉教授加里·马库斯。
马库斯本月早些时候在“订阅堆栈”网站上写道:“经济情况可能变得严峻。即使大语言模型的提升空间有限,未来它们也不会消失,可这在经济效益层面永远行不通……当人们认识到这一点,金融泡沫可能迅速破裂;甚至英伟达也可能受到冲击,只要人们意识到该公司的估值在很大程度上是基于错误的前提。”(编译/胡广和)
来源:参考消息网
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。