这一次,腾讯要让人人都能「用好」大模型
今天的大模型 To B 赛道,仍然是一个非共识的时代——大模型如何落地,给企业产生实际价值,即使一年过去,也没有一个标准答案。
而厂商想用大模型开拓 B 端市场,则大多从自己的基因和能力出发,各出奇招,至今已经有了几条比较成熟的打法:
有些厂商,意在用更大、更强的基础大模型做突破,以更好的泛化能力应对需求多样的 To B 市场;
有些厂商,则通过数据清洗、精调等手段,把大模型精调成具体行业的形状,再用“大模型商店”让客户可以自由挑选,甚至自己做自己的定制化;
有些厂商,意识到了 AI 原生应用的重要性,便依托自己的大模型能力,接连推出不少应用,快速登陆抢占市场。
各个厂商八仙过海,路径各有千秋,赛道竞逐至今,几个流派仍然还未能分出胜负,非共识向着共识的收束仍在继续着。
当人们讨论到大模型 To B,常常各持己见,有人说技术、有人说应用、有人说生态,难以争出个高下;
而在这个纷争的非共识时代,作为一家拥有着丰富经验的 To B 大厂,腾讯却想要走一条自己的 AI 之路。
大模型赛道的火热,最能让人感受到的是 AI 原生应用和 Agent 产品的爆炸式增长,繁荣如同烟花升空,好不热闹。
作为看客,自然可以额手称庆,感慨于国内大模型产业发展之迅速;而如果拨开鲜花和掌声,着眼于实际的 To B 生意,就能发现,AI 大模型在 B 端市场的渗透率,则远不如一年前预期中的高。
在实际推进落地的工作中,腾讯自然也看到了这一点。
去年6月19日,腾讯云向外界推出了“行业大模型”,一时间让大家看到了大模型在行业落地的希望。过去的报道《行业大模型落地肉搏:谁先扎进行业,谁就先入“咸阳” 》就讲到:“腾讯行业大模型给出的方案,是在平台上开放多个模型,企业在选用了更加适合的模型后,可以针对自己的具体需求,进行定制化的训练。”
这条道路,也被不少追随者所认同——纷纷开放大模型商店,“货架”上摆满了不少琳琅满目的模型以及原生应用。而实际的效果,正如今天看到的一样,还并不能非常完全地解决企业的问题。
而回到腾讯云,在去年619——甚至是在制定 AI 大模型战略的第一天,他们应该就清楚,行业大模型想落地,必须往前再走走。
一方面,腾讯知道,一个模型就算再大,也无法满足大 To B 行业中众口难调的多样、复杂需求,同时也要考虑到 Scaling Law 对于成本的消耗,于是去年6月19日,腾讯推出了自己的行业大模型,把大模型的数据、调优等能力交给用户,让用户定制适合自己的大模型;
这样的想法终归很好,但却远不是大模型 To B 的完成形态——不少IT能力稍弱的用户很难做数据清洗、筛选,更别提模型的精调和评估,行业大模型再好,也不是能覆盖大部分 B 端客户的“解药”。
去年发布行业大模型时,腾讯早就有挽起裤腿,深入 To B 战场的决心。而到了今天,腾讯则必须向深处更进一步,距离用户更近,提供更加一站式、傻瓜式的服务,做可以“开箱即用”的大模型产品。
在这一点上,腾讯则展现出了谨慎而克制的一面——从金融、医疗、教育等行业大模型为起点,腾讯不做大水漫灌,也不做激进探索,而是一步一个脚印,做单点的行业突破,聚焦用户需求细节,站稳脚跟,小步快跑。
“腾讯始终以‘产业使用’,作为发展大模型的核心战略。”在今天召开的腾讯云生成式AI产业应用峰会上,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生说道。
而到了实际的产品发布,一站式AI智能体创作与分发平台“元器”、一条由三大引擎组成的大模型工具链,也被正式推出向公众展示。
实际上,如果用心留意,工具链几乎是每一个大模型平台的标配——毕竟,没有好的工具链支持,AI 原生应用就没法在平台上落地发芽。而各大平台要争夺用户,工具链产品必须得卷,让开发者用得舒服,才能转化为平台上的活跃用户,进而给平台带来活力。
而腾讯云大模型工具链的“卷”,则上升到了一个新的高度。
别人“卷”大模型,卷的是模型效率优化,卷精调的易用性,卷低代码——甚至零代码的用户体验。
而腾讯云,除了这些“必修课”,还“选修”了不少别的“小课”。
以知识引擎为例,用户输入一系列文档,就可以生成一个基于文档知识的 AI 助手。
举个例子,一个保险行业的客户,只需将自己保险产品的说明书录入知识引擎,再加上一些简单的功能描述,按几个按钮,几分钟过去,就能获得一个专属于自己的 AI “保险代理人”,而完全不必关注所谓数据清洗、模型精调等等“高大上”的操作。
而做好知识引擎,腾讯云的杀招不在大语言模型能力上,而是检索增强(RAG)和辅助文档解析和理解的 OCR 大模型。
整合 RAG 进入大语言模型,对于大模型来说,并不是一个独特的技术路线:通过对输入文档的检索,减少大模型性能的浪费,并减少幻觉——而这两点,都是 B 端客户在使用大模型时,最看重的指标。
在接受采访时,腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声就提到,在将大模型推向 B 端时,遇到过两个很大的难题:
一个是大模型厂商和客户在行业 Knowhow 上的信息差、经验差,让大模型很难真正“落到地上”;
一个是客户对于 AI 的预期很高,都希望 AI 可以一键解决自己的大部分问题,而这与实际还有不少差距。
两个问题统合起来,就把矛盾集中到了一个点:“如何让 AI 可以快速理解企业 Knowhow,并用更低的成本、更简单的操作来带来价值。”
人们对 AI 的想象,是把自己的资料输入给人工智能,人工智能就能理解文档,从而基于文档的内容作答。而实际上,想要 AI 像人一样理解文档的内容,却并不像想象中一样简单。
AI 要理解、输出知识,首先需要精准地将信息进行切分一个个的信息块,其次还得可以准确地检索到用户问题指向的内容。腾讯集结团队,自研了 Tencent RAG (TRAG)架构,为了让客户能够省心、放心,腾讯在 TRAG 做了不少新的尝试:
在知识切分的角度,TRAG 用了相当暴力的方式,先让 AI 理解文档的结构,理清各级标题,再对每个文本做语义级的拆分,在每个切片长度可控的前提下,让 AI 对信息的理解不缺字漏字、断章取义;
而在检索的角度,TRAG 的工业级检索已经支持 4K 左右的规模,并继承了多种检索策略,在各种检索的榜单上,也经常盘踞头名的位置。
也正是这种对细节问题的坚持,让腾讯知识引擎得以在大模型推理、生成能力不掉队的前提下,可以在回复质量上完成突破——相比之前的 AI 客服,腾讯方面的专家介绍道,知识引擎在客服领域的用户满意程度,上升到了之前的两倍。
除了知识引擎,腾讯云本次推出的图像、视频创作两大引擎,也同样各有千秋,服务了不少重点客户并且获得许多好评,本质上,也离不开对用户需求细节的关注。
依托腾讯混元大模型的多模态能力,腾讯云的图像、视频创作引擎,给使用者提供了图像风格化、AI写真、运动笔刷、图片跳舞几大功能,让一般用户可以用 AI 改变过去拍照、拍摄视频的方式;
而生产力工具线稿生图、视频转译、视频画布拓展等能力,则让专业使用者大幅提高了创作与生产效率,能切实地给行业带来一波巨大的产能红利。
就如上面提到的,相比同赛道的竞逐者,腾讯云大模型 To B 关注的领域和行业更加聚焦,以金融、医疗、教育等重点行业为锚点,不断地升级技术、深入理解需求、完善产品,把打下的山头站住、站稳,把每一步都走得踏实。
在金融行业,腾讯与圆心惠保合作,让 AI 成为保险代理人的高效智囊。圆心惠保过去以传统 NLP 作答的机器人,回答准确率仅在57%,几乎对错“五五开”;而得到腾讯知识引擎的支持后,这个数字则提高至了85%,平均下来,给保险经纪人提效了50%。
而教育行业同样对大模型需求非常旺盛。河南省数字教育发展有限公司就在知识引擎的帮助下,仅仅两三个月的前端开发,就成功地把 AI 放进了教案生成、活动策划、虚拟辅导员等教育活动全流程当中,让人工智能在教辅场景的采纳率接近90%,而习题解析和百科问答的准确率则接近了95%。
有技术实力,也有下探行业 Knowhow 和实际需求的耐心,腾讯的“稳”,就是决心要用户危险,做开箱即用的“傻瓜式”产品,让企业用好大模型的“最后一公里”能走的顺畅、稳健。
傻瓜式产品,是最符合世界对 AI 想象的场景——细枝末节的事情由人工智能操心,人类只需要提供创业和构思,生产力就自然被解放了出来。
而要把 AI 做得“傻瓜”,也绝不像人们想得这么简单——背后没点硬实力、强支持,开箱即用的产品还真不这么好做。
在平台支持的角度上,腾讯云 TI 平台在背后提供的超强能力,让做成“傻瓜”产品成为了可能。
今天的峰会上,腾讯也披露了 TI 平台的全新升级:
新增了三大类数据处理流程,简化了100多种任务类型的数据配比;通过优化Prompt和提供Notebook代码,降低了数据处理的复杂性;同时,支持任务排队,提高平台处理能力和稳定性。
数据处理链和精调工具链的全面升级,让 TI 平台有了做好这个灶台的底气——让知识引擎等等 PaaS 产品,进一步降低 B 端用户使用大模型的门槛;
而在与知识引擎的联调中,TI 平台也同样担任了大模型优化飞轮的一部分——支持客观和主观两种评测方式,TI 平台可以结合业务难例和知识库,进行端到端的效果评测,并且持续关注模型精调后的效果,让用户可以及时了解、优化大模型的业务效果。
TI 平台给大模型的数据清洗、精调、评估带来了全面、轻量化的升级;
而到了 MaaS 层,行业大模型也被内置进了知识引擎,让知识引擎可以针对具体的垂直领域,完成有针对性的性能优化。
比如,腾讯的金融行业大模型,在金融舆情分析、投资顾问等场景下,有针对性地进一步强化了专业术语理解、数值计算、文案生成及合规性等方面的性能,让降低了 AI 产品的定制化成本,试图打破 AI To B 的行业“魔咒”。
有了 TI 平台和行业大模型的加持,腾讯自己的混元大模型,同样也是 To B 战场上,一个重要的利器。
经历了再一轮全面升级,又在腾讯内部600个业务场景中开始落地,混元大模型今天已经分化成了 hunyuan-pro、hunyuan-standard、hunyuan-lite等多种尺寸的版本,并已经在腾讯云上,向企业和开发者全量开放。
“能文能武”的腾讯混元,在这一轮升级后,总体性能较之上代,又飞速提升了50%,部分中文能力已经可以追平GPT-4,距离世界领先的 AI 水准更进一步,而 Standard 版本开始支持 256K 上下文的理解,在长文档的理解和处理上也提效不少;
在多模态能力上,混元也开始支持图片、视频、甚至 3D 内容的生成,生成的视频长度可以达到16秒,效果也不输不少竞品。
除此之外,持续升级的还有腾讯的向量数据库,和大模型数据向量化工具——在一系列技术加持下,腾讯和 B 端客户的距离,正通过一套完整的工具链生态,变得越来越近。
“我们肯定是没变过的——腾讯自始至终的导向,都是要距离客户更近。今天,我们提出了知识引擎等三大引擎以及一系列产业应用,和一年前一样,都是为了用户用 AI 的门槛进一步降低。”在接受采访时,吴运声如此说道。
“我们还是要将行业大模型不断地迭代,目的只有一个,就是做‘距离产业更近的 AI’。相比行业大模型,知识引擎距离用户更近,未来可能还会有可以让我们更进一步的成果。”
To B 与 To C 行业不同,不能“一招鲜吃遍天”,而是要随时面对持续产生的新问题,做新的变化,跨过新的挑战;
在这一点上,腾讯大模型 To B 如果不“变”,或者说,不持续地进化,那么终将被 B 端市场无情的大浪淹没。
而长远来看,这一年,不管技术如何变迁,产品如何演进,腾讯的初心没变,路线更没变——通过不断升级行业大模型能力和工具链、产品生态,完成小步快跑,逐个击穿行业,完成渗透和突破。
而从基础大模型到行业大模型,再到AI 智能体应用的演变,实际是腾讯正坚持自己大模型 To B 战略路线的印证。
去年一年,行业已经目睹了盛行在 AI 大模型赛道的“加速主义”,对“错过”的恐惧支配了不少狂飙突进的厂商,让整个赛道炙手可热。
而面对新的激流,吴运声似乎表现得相当淡定。在被问及“今年最大的 KPI 是什么”时,他的回答也一如腾讯云的战略气质——冷静,而克制:
“我们今年最大的 KPI,既不单纯是技术,也不是市场或者商业化,而是我们是否能真正让客户用得满意。反过来说,只要客户满意,我们的技术自然可以得到滋养,市场覆盖率和营收也自然就上来了。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。