加里·马库斯:如果生成式AI是哑弹,可能导致不必要的中美紧张
【编者按】当地时间8月13日,一向喜欢给ChatGPT泼冷水的美国知名AI学者加里·马库斯(Gary Marcus)发表文章,标题为《如果生成式AI被证明是个哑弹怎么办?》。在文章中,他认为,生成式人工智能目前还没有带来足够的收入以支撑火热的估值,继续这样可能会导致一些初创企业倒闭。在技术上,短期内也无法解决幻觉问题和实现通用人工智能。
除此之外,马库斯更担心生成式人工智能带来一些可能的地缘政治影响。“如果生成式人工智能将比火和电更强大的前提被证明是错误的,或者至少在未来十年内没有得到证实,那么有可能事后看来,最终会导致与中国产生不必要的额外紧张关系。”他写道。
马库斯一直是生成式AI浪潮的唱反调者,坚称仅靠深度学习并不能实现类人智能,经常在社交媒体上与AI知名学者舌战,并签署了暂停训练比GPT-4更强大AI系统的公开信。以下为这篇文章的全文翻译。
美国AI科学家、作家和企业家加里·马库斯。
除了迅速火热和迅速降温的所谓室温超导体LK-99之外,我很少见过有东西比生成式人工智能被炒作得更厉害。许多公司的估值都在数十亿美元,新闻报道持续不断;从硅谷到华盛顿特区再到日内瓦,这是任何人都可以谈论的话题。
但是,首先,收入还没有到来,而且可能永远不会到来。估值预计将达到数万亿美元市场,但据传生成式人工智能目前的实际收入为数亿美元。这些收入确实可能增长1000倍,但这极具猜测性。我们不应该只是推测。
到目前为止,大部分收入似乎来自两个来源:编写半自动代码(程序员喜欢使用生成工具作为助手)和编写文本。我认为程序员会对生成式人工智能的帮助感到满意;它的自动完成特性对于他们的工作来说非常棒,并且他们接受过检测和修复常见错误的培训。本科生将继续使用生成式人工智能,但他们的财力并不雄厚(他们很可能会转向开源竞争对手)。
其他潜在的付费客户可能很快就会失去信心。今天早上,颇具影响力的风险投资家本尼迪特·埃文斯(Benedict Evans)在X(以前的Twitter)上的一系列帖子中提出了这一点:
风险投资家本尼迪特·埃文斯写道:我用了半年的ChatGPT3.5&4,真的没发现对我有任何用处。它可能是新的个人电脑,但不是电子试算表或文字处理器。我相信会有,但目前还没有。
我的朋友尝试使用ChatGPT来回答搜索查询以帮助进行学术研究,他们也面临着类似的幻灭。一位使用ChatGPT进行法律研究的律师受到了法官的严厉斥责,并且基本上不得不以书面形式承诺,永远不会再以无人监督的方式这样做。几周前,一则新闻报道暗示GPT的使用可能会下降。
如果埃文斯的经历是煤矿里的金丝雀(编者注:通常预示着前方有更多危机),那么整个生成式人工智能领域,至少按照目前的估值,可能会很快结束。程序员将继续使用它,而必须编写大量文案来推广其产品以提高搜索引擎排名的营销人员也会继续使用它。但无论是编程还是快速、质量平庸的文案写作都远远不足以维持当前的估值梦想。
即使是OpenAI也很难实现其290亿美元的估值;如果年复一年只有数千万或数亿美元的收入,估值在数十亿美元以下的正在竞争的初创公司很可能最终倒闭。微软今年的股价上涨了近一半,或许主要是因为其对生成式人工智能的承诺,但其股价可能会暴跌;英伟达暴涨得更多,也可能下跌。
罗杰·麦克纳米(Roger McNamee)是软件风险投资的早期先驱,前几天我和他讨论了这个问题。也许在经济上对我们双方来说真正有吸引力的唯一用例是搜索(例如,使用由ChatGPT提供支持的Bing而不是谷歌搜索),但其中的技术问题是巨大的;没有理由认为幻觉问题(编者注:AI出现错误或偏差,导致生成不准确、错误甚至荒诞结果的现象)很快就会得到解决。如果不行,泡沫很容易破裂。
但现在让我担心的,不仅仅是整个生成式人工智能经济(仍然更多地基于承诺而不是实际商业用途)可能会出现大规模、令人痛苦的修正,而是我们正在把整个全球和国家政策建立在一个前提上,即生成式人工智能将以事后看来可能不现实的方式改变世界。
在全球方面,拜登政府不仅限制了对生成式人工智能(目前)至关重要的高端硬件芯片的使用,而且对中国的投资也设限;中国对全球合作也并不十分热情(仅代表作者本人观点)。紧张局势非常严重,其中很多都围绕着谁可能“赢得人工智能战争”的梦想。
但如果赢家不是任何人,至少在短期内不是这样呢?
在国内方面,可能保护消费者的监管(例如围绕隐私、减少偏见、要求数据透明度、打击错误信息等)正在因确保美国生成式人工智能尽快发展的制衡压力而放缓。我们可能无法获得所需的消费者保护,因为我们正在努力培育一些可能不会按预期增长的东西。
我并不是说任何人的某些政策都是错误的,但如果生成式人工智能将比火和电更强大的前提被证明是错误的,或者至少在未来十年内没有得到证实,那么有可能事后看来,最终会导致与中国产生不必要的额外紧张关系,甚至可能因海市蜃楼而引发台湾战争,以及社交媒体层面的惨败,消费者在资讯中受到剥削,错误信息占据了主导地位,因为政府不敢采取足够严厉的打击措施。很难对这一切提出质疑,但这是一个发人深省的想法,我希望华盛顿和北京都能对此有所考虑。
在我看来,几乎每个人都犯的根本错误是相信生成式人工智能等同于 AGI(通用人工智能,与人类一样聪明、足智多谋,甚至更出色)。
行业里的每个人可能都希望你相信通用人工智能即将到来。它激发了他们对必然性的叙述,并推动了他们的股价和初创公司的估值。 Anthropic首席执行官达里奥·阿莫代(Dario Amodei)最近预测,我们将在2-3年内实现AGI。谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)也预测AGI会在近期到来。
我严重怀疑这一点。生成式AI的核心问题不是一个,而是许多严重的、未解决的问题——从编造(幻觉)虚假信息的倾向,到无法可靠地与Wolfram Alpha等外部工具交互,到每个月的不稳定(这使得它们不适合在大型系统中进行工程化使用)。
而且,事实证明,除了纯粹的技术乐观主义之外,我们没有任何具体理由认为这些问题的解决方案近在眼前。通过扩大系统规模来“扩展”它在某些方面有所帮助,但在其他方面却没有帮助。我们仍然无法保证任何给定的系统都是诚实的、无害的或有帮助的,而不是阿谀奉承的、不诚实的、有毒的或有偏见的。人工智能研究人员多年来一直致力于解决这些问题。想象这些具有挑战性的问题会突然全部得到解决是愚蠢的。22年来,我一直在抱怨幻觉错误;人们一直承诺解决方案即将到来,但它从未实现。我们现在拥有的技术是建立在自动完成而不是事实性的基础上的。
有一段时间,这种担忧被置若罔闻。但一些科技领袖似乎终于明白了这一点。看看几天前《财富》杂志上的这个故事:
《财富》杂志报道称,科技专家开始怀疑ChatGPT和AI的幻觉问题是否会解决。
如果幻觉无法修复,生成式人工智能每年可能赚不到1万亿美元。如果它每年赚不到1万亿美元,那么它可能不会产生人们预期的影响。如果它不会产生这种影响,也许我们不应该围绕它的前提来构建我们的世界。
原文链接:https://garymarcus.substack.com/p/what-if-generative-ai-turned-out
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。