首页 > AI资讯 > 最新资讯 > 中国AI新序章:从百模内卷到应用浪潮

中国AI新序章:从百模内卷到应用浪潮

新火种    2024-01-03

21世纪经济报道

记者倪雨晴 陶力 深圳、上海报道 

属于科技产业的AI时代正在到来。

自2022年10月ChatGPT面世以来,大模型一路狂奔。如果在人类文明史上将2023年作为分界,在此之前是AI的混沌期,在此之后则是生成式AI开天辟地的时代。

2023年,国内科技行业形成了“百模大战”之势,从基础大模型到行业大模型,各家飞速前行;到了下半年,越来越多的应用涌现,并在垂直行业落地商用。回望过往一年,业界群雄并起,却也伴随着重复建设的争议、面临着产业化的难题。

当竞速进入白热化,行业是否能找到合适的盈利点?如何更好在不同场景落地?又怎么解决算力掣肘的问题?

多名行业专家在接受21世纪经济报道记者采访时认为,虽然目前国内有200多个大模型,但是在2024年将会面临激烈的竞争和淘汰。另一边厢,生成式AI的应用仍将持续创新,其中B端产业应用潜力大,展现出新的商业模式和机会,C端赛道则主要集中在生产力工具和娱乐属性上。

整体而言,从2023年上半年的火热之后,下半年业界对于生成式AI、大模型产业化都更加理性,呈现出创新与谨慎并存的态势。

社科院数量经济与技术经济研究所数字经济研究室主任蔡跃洲认为,百模大战反映的是通用目的技术渗透到方方面面,面对全方位的颠覆式创新,如何迎接背后的挑战并抓住机会是重要课题。比如国内存在算力的问题,但是国内有庞大的需求,包括大模型的需求。“未来应用场景还是我们的优势,牵引国产供给能力的提升、技术能力的优化迭代,孕育着机遇。”他说。

2023:“百模”大战的AB面

风投数据分析公司PitchBook数据显示,截至2023年10月15日,全球AIGC领域融资总额达232亿美元(约合人民币1656亿元),比2022年全年增长250.2%,其中AI核心(Al core)领域融资就达50.82亿美元。目前,全球AIGC新兴领域相关公司总数量已超过1500家。

火热之势可见一斑。以非凡资本为例,该机构平台上已经收集了超过1000家国内外AI应用层企业,其从融资服务层面深度服务的企业有60余家,融资转化率超过10%。

虽然AI创业者众多,但是AI商业化从来不易,机构们对于投资也是出手谨慎。

“哪怕整个AI赛道在如火如荼的创业,但相比往年,资本给到的扶持还是非常少。”非凡资本合伙人胡小婧对21世纪经济报道记者表示,AI应用层里,今年受机构青睐的是能够快速找到应用场景的企业,有一个非常尖锐的刚需切口,借此打开一个全新的市场,并且在收入层面能快速看到增长。

这些受青睐的应用可以分成“AI+”和“+AI”,“AI+”指的是AI-Native,完全基于生成式AI技术为出发点的创新应用,“+AI”指的是在原先已有业务上,增加AI的工具就能大幅提效或产生增购的应用。

与此同时,AI应用层的热门趋势也在不断演变,两种类型的企业在发展时间线上有所差别。

胡小婧进一步指出,今年上半年非常利好“+AI”类的公司,因为在客户的需求基础上再去拓展应用场景,能够看到比较好的效果。在下半年,很多AI原生类的应用也推出产品,开始服务客户。

若从全球视角看,目前则形成了“1+N”的格局,OpenAI的ChatGPT是“1”个超级明星产品,其他“N”款应用在从各个领域进行突破,当然格局也在不断变化之中,国内的企业正在加速追赶。

大模型层面也竞争激烈。Fasion.AI创始人兼CEO程斌告诉记者:“2月份的时候,我们还在讨论国内到底有哪两三家有实力训练真正的大模型,到5、6月份的时候涌现出来100多家大模型企业,每家都觉得需要有一个自己的轮子,某种意义上也造成一定的资源浪费。”

对此,360智脑专家葛灿辉也有同感,他预计,目前国内200多个模型到明年这个时候肯定不会有这么多。“在公有域剩下五到十家已经顶天了,私有域的也是非常残酷的淘汰赛。”他说。

谈及2024年的发展趋势,葛灿辉坦言,应用层面国内特别喜欢做超级APP,但是在AI领域,很多API能力要开放出来才能发挥最大价值,尤其在Agent时代,合作的效应一定大于自己去把一切搞定,做APP之间的互操作会非常方便,这是趋势。目前,360智脑大模型与OpenAI的API能做到100%兼容,第三方开源生态使用起来也更便利。

“我们希望可以方便地接入LangChain LLamaIndex 等开源生态工具链。最主要的硬实力追赶还是在底层硬件和底层模型,很多国内创业公司在推进私有模型的追赶,消费级硬件上的私有模型跟国外的差距并不大。”葛灿辉颇有信心地说。

2024:迎来应用浪潮

随着AI技术的不断发展,大模型在C端和B端应用领域展现出丰富的创新,然而,背后也隐藏着诸多挑战。

胡小婧指出,今年国内在C端大模型领域的投资相对较少,主要原因是国内大模型基础层的不确定性。一方面刚开始大家不知道大模型的进步速度,担心C端产品容易被基础模型迭代颠覆;另一方面也担心创业公司竞争不过国内大厂,这种谨慎态度导致机构对C端机会的观望。

但是C端仍有诸多发力点。胡小婧介绍道,C端的创新点主要集中在两个领域:“Save Time”和“Kill Time”。“Save Time”侧重于节约使用者的时间,例如生产力工具和效率工具。这些工具在提高个人生产力的同时,形成了个人付费的生态,甚至能够由个人带动企业的付费。另一方面,“Kill Time”则包括情感陪伴和游戏等,满足了用户在娱乐方面的需求,这两个分类涵盖了整个C端对于生成式AI新范式的主流需求。

B端应用上,大模型的应用呈现出两种主要趋势,一种是在原有的B端软件基础上,用AI工具增强原有解决方案,从而不断增强产品壁垒和客户价值。另一种趋势是AI Agent的崛起,即基于不同的任务解决方案拼接形成完整的工作流。胡小婧认为,这是下一代软件的重要机遇,虽然AI Agent还处于早期阶段,但其潜力不容小觑。

同时她还特别提到,对于从事to B软件服务的公司而言,商业模式发生了巨大变化,在SaaS收费趋势后,兴起了流量式收费,即按照token来计费。这一新兴的收费方式为企业带来了新的盈利机会,但也面临着低价竞争和维持客户使用量的挑战。

小米集团技术委员会AI实验室大模型团队负责人栾剑向记者认为,AI的应用历程并非一帆风顺,而是经历了起伏波折。在发展过程中,曾出现过几个高峰,也经历过几次严冬。现在的大模型,对于to B应用来说,正处于一个比较好的发展阶段,因为在提高效率方面看到了真实的效果。“相比之下,C端用户则对大模型的黏性不强,只在娱乐方面的接受程度较高。”他说。

目前,很多大模型公司的to B应用方向,不再是上来就学习一个真正的行业大模型,而是用知识图谱的方式进行企业内部知识库的整理,然后再用大模型溯源最终的知识库来源,用大模型进行总结归纳,最后推出给用户。而“Safe Time”类型的企业,真正的工具性路径还需要进一步探索。

程斌认为:“大模型某种意义上带来了技术平权。当技术门槛被拉得无限平的时候,合理有效的应用将成为最终的杀手锏。目前大模型应用的真正受益方,是以前已经形成自己商业闭环、能够快速利用大模型进行降本增效甚至进一步延展自己业务边界的公司。接下来,在今年下半年到明年上半年,应该会集中爆发一批很有创意的AI驱动产品的公司。”

商用艰难进化

生成式AI的产业应用滚滚向前,随之而来的商业化过程也面临着一系列的挑战。

澜舟科技合伙人、首席产品官李京梅表示,澜舟科技在2021年成立时选择预训练模型,是因为预训练模型在to B的落地应用中拥有更高的效率和更低的交付成本。然而,大模型的发展也伴随着一个显著的变化,即参数量的增加。过去的预训练模型偏小,但为了赋予大模型更广泛的通用能力,如今的模型参数量已经达到了百亿、几百亿的级别,今年澜舟科技的孟子GPT大模型也是选择做更大参数量。

她回顾道,上半年大家都比较“燥热”以及特别兴奋,预期非常高,下半年开始理性化,商业化阶段的挑战逐渐凸显。而为了解决商业化问题,寻找标杆客户成为关键一环。通过与标杆客户共同打磨,不仅可以获得真实的用户反馈,还能够在应用过程中发现问题并及时改进迭代。

对于商用难点,达观数据副总经理吕文超表示,目前单个场景能够产生的价值有限,客户的付费意愿与实际投入成本不成正比。为了解决这一问题,他提出了几种可能的方案。首先是组合打包,将多个产品线、多个方向进行整合,形成一个付费的整体解决方案。第二种方案是卖人力,即提供有经验的工程团队,满足客户在咨询和开发方面的需求。第三种方案是原有产品的升级扩展,通过完善现有产品,提升价值并拓展应用领域。

对于to C商业化的挑战,也有AI行业技术负责人对21世纪经济报道记者表示,虽然to C商业化相对较难,但一旦找到了契合的场景,成功仍然是有可能的。“在to B领域,很多龙头公司确实对AIGC有很强的需求,大企业付费意愿会比较高,关键在于我们的功能是不是真的能解决企业真正的痛点。”他说。

同时李京梅还谈道了“幻觉”的问题,这也是在toB场景中还没有完全解决的痛点。在大模型的生成中,经常会出现一些错误或者被称为“幻觉”的问题,栾剑认为,虽然幻觉在某些场合可能显得不太靠谱,但在人们能够容忍一定真实性错误的场景下,会给大模型在创造力方面留下空间,产生意想不到的效果。“当然,我们仍需要不断地探索和改进,以确保人工智能技术在各个领域都能发挥最大的价值。”他说道。

此外,IBM实验室数据与人工智能首席架构师徐孝天还提到了安全可信的问题,他表示:“模型的可信是很大的问题,特别是面对to B客户的时候,如果不把模型做成可信,非常难上线。”

上述观点和实践经验,共同描绘出大模型商用面临的复杂格局。商业化路径的探索需要理性思考和与用户紧密合作,同时要解决模型生成中的“幻觉”问题,并且确保可信性也成为商业化过程中的一项关键考量。

破局算力困境

随着大模型演进,对算力的需求变得愈发巨大。在这一背景下,业内专家谈及大模型算力的瓶颈和突破,有观点认为国内算力情况乐观,也有观点指出全球短缺会长期存在。

葛灿辉直言:“我们现在各方面算力也准备得挺多,但永远都不够,这是一个现状。”这也反映了大模型应用所需算力的迅猛增长,尽管不少企业做了充分的准备,但需求的不断增加仍然让人感到不足。

同样感到紧缺的还有达观数据的吕文超,“我们去客户现场一般都是用推理阶段,推理阶段其实对算力的要求还好,不是很高,但是也出现了紧缺的问题,”他说道,“比如之前A100、A800属于紧缺的显卡(GPU),不好买,最新的消息是A10、A16这样的普通显卡都不好买了,下单周期很长。”

国内市场上,获取算力的成本大大增加,同时对于国产创新的需求也更加迫切。

国家层面已在加紧布局。近日,国家发展改革委、国家数据局、中央网信办、工业和信息化部、国家能源局联合印发《深入实施“东数西算”工程加快构建全国一体化算力网的实施意见》,提出到2025年底,综合算力基础设施体系初步成型。国家枢纽节点地区各类新增算力占全国新增算力的60%以上,国家枢纽节点算力资源使用率显著超过全国平均水平。1ms时延城市算力网、5ms时延区域算力网、20ms时延跨国家枢纽节点算力网在示范区域内将初步实现。

企业层面的当务之急是优化模型、加强储备。吕文超表示:“我们特别希望能把模型做小,中国本土的GPU厂商包括生态能起来,这样成本就会大大降低,我们现在有很大一块成本都是跟GPU相关。”

可以看到,当前大背景下,国内的芯片厂商面临发展机遇,但是相比英伟达,生态仍是难题。程斌认为,目前硬件训练端从单纯的算力角度,国内已经有一些产品能够跟国外产品对标,但是缺乏生态的支撑,导致无法大面积铺开。而推理端的国产化替代目前走的更快一些。“真的到GPT-4乃至进一步的训练,算力的瓶颈还是存在的。”他说。

即便面临种种挑战,横空出世的ChatGPT仍然令整个科技圈为之振奋、欣喜并充满了幻想。在创业者的想象里它可能有许多样子,一个具有强大的泛化性、通用性和实用性的AI助手,想必也会颠覆传统的生产和工作模式。但是,它必须从芯片、算法、数据、软件等多方面发力,就像一个人不仅要有骨骼、有血肉,还要有头脑、灵魂。

工业和信息化部赛迪研究院数据显示,目前我国已有超过19个语言大模型研发厂商,其中,15家厂商的模型产品已经通过备案,预计2023年我国语言大模型市场规模将达到132.3亿元,增长率达到110%。

可以预见,在即将到来的2024年,模型能力进一步完成从量变到质变的飞跃后,还会呈现出更加惊人的爆发式增长。

蔡跃洲认为,国内整体集成电路芯片的自给率2021年约是9.9%,2022年是10.1%,整体供需是不足的,同时国产信创自研芯片的转换,在适配上面存在障碍。“化危为机的关键在于,大家有需求,对整个产业链来讲,其实给国产带来了机会,国内有这么大的需求,应用场景也是优势。”

总体来看,算力芯片国产化既面临诸多挑战,又蕴含着巨大的机遇。通过优化模型、增强国内芯片的适应性、解决信创问题,以及拓展国产芯片份额,有望在算力领域迎来新的发展机遇。


Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。