首页 > AI资讯 > 行业动态 > 字节“扣子”正式加AI战场!2024年的大模型能否实现弯道超车?

字节“扣子”正式加AI战场!2024年的大模型能否实现弯道超车?

小岩    2024-02-07


作者:小岩

编辑:彩云

2月1日,一直在AI领域保持静默状态的字节跳动突然出现了大动作,正式推出AI聊天机器人构建平台Coze的国内版——扣子。

与过往聊天机器人的形式不同,“扣子”更像是2023年11月Open AI发布的GPTs,可以让用户通过聊天,调用插件等方式,创建个人定制版Bot,实现“0代码”开发。这意味着无论用户是否拥有编程经验,都可以在“扣子”上快速创建各类聊天机器人,并一键发布到不同社交媒体与消息应用当中,诸如飞书,微信公众号,豆包等渠道都是支持的。

如此来看,“百模大战”并没有因为2024年的到来而偃旗息鼓,反而还不断涌现出新的选手。我们不禁好奇,在2024年大搞大模型,还能否有机会实现弯道超车?

扣子主打4大核心优势,未来将聚焦AI应用层拓展。

依据官方介绍,扣子主要拥有4大核心优势。

首先,它拥有无限拓展的能力集。目前,扣子已集成超过60款不同类型的插件,且支持用户自行塑造自定义插件。用户可以通过参数配置的方式,用已有的API能力快速打造插件,以此让Bot调用。其次,扣子覆盖了丰富而易操作的数据源,可以充当简便的知识库,帮助用户管理数据与存储数据。无论是庞大的本地文件,抑或来自某些网站的实时信息,都可以上传到知识库。而且,扣子具有持久化的记忆能力。可以提供便捷的AI交互数据库记忆功能,可以持续记忆用户对话的关键参数或内容。最后,扣子的灵活工作流设计也值得一提。他不仅能处理逻辑复杂,对稳定性要求较高的任务流,还可以提供多种灵活可组合的节点,包括大语言模型LLM,自定义代码,判断逻辑等。不管你是否有编程基础,都能通过简单的拖拉拽方式快速搭建一个工作流。

截至目前,扣子Bot商店已经拥有了30多款不同的应用,包括工具,娱乐,咨询,创意等类目,可以提供卡通头像生成,简历诊断,文案输出等能力。也正因此,扣子还被外界称为是“平替版GPTs商店”。

扣子是字节跳动旗下新部门Flow的作品。

自去年11月,字节跳动突然成立了专注于AI创新业务的新部门Flow,并相继发布了豆包和Cici,如今再次强势上线扣子,Flow可谓动作频频,实绩不断。

据悉,Flow由字节跳动技术副总裁洪定坤担任技术负责人,字节大模型团队负责人朱文佳担任业务负责人。他曾在百度搜索部担任主任架构师,是当时百度网页搜索部技术副总监杨震的得力助手。外界普遍猜测,朱文佳之所以被选为Flow部门的业务负责人,就是为了帮助字节跳动实现聚焦AI应用层的目的。值得一提的是,扣子已经成功进入了美国市场,而字节的其他几款产品尚未进入美国和欧洲市场。

大厂纷纷涌入,2024年的大模型赛道依然拥挤...

除了字节下场以外,其他大厂也在摩拳擦掌,跃跃欲试。

1月21日,猎豹移动CEO傅盛创立的猎户星空发布了自己的大模型Orion-14B。傅盛强调,在企业应用场景中,猎户星空大模型在结合企业私有数据和应用时,即可实现千亿参数级别的模型效果。

而早在2023年,科大讯飞,360等企业就开始抢滩大模型赛道,并在2024年展开快速迭代。科大讯飞在近日发布了星火大模型V 3.5,360则上线了大模型搜索App“360 AI搜索”。 

无独有偶,手机厂商也纷纷涌入了大模型赛道。1月10日,荣耀发布了自研的70亿参数端侧AI大模型“魔法大模型”。自此,华为,小米,OPPO,vivo,荣耀5家国产主流手机厂商在大模型领域齐聚。

2024年AI产业预判:不是大模型玩不起,只是应用更具性价比。

不管目前大模型赛道的竞争有多激烈,说到底,大家都更看重未来,都要为大模型的尽头找条出路。2024年,对于大模型发展目标的认定,大家几乎达成了共识:发展出杀手级别的应用。

百度创始人李彦宏就曾表示,“人类进入AI时代的标志,不是产生很多的大模型,而是产生很多的AI原生应用”。360创始人周鸿祎也在今年年初谈及大模型发展趋势时断言,2024年将成为大模型应用场景之年,会出现“杀手级应用”。

从某种程度上说,这也意味着,大模型与C端用户的距离会越来越近。

还是说回李彦宏,他曾在多个重要的公开场合表达了自己对AI应用发展的看重。

2023年12月,在极客公园创新大会2024上,百度李彦宏给出了他对于AI行业的思考,“卷AI原生应用才有价值,大模型的进展对绝大多数人都不是机会”。

11月,在深圳西丽湖论坛上,李彦宏表示,“AI原生时代,我们需要100万量级的AI原生应用,但是不需要100个大模型”。

为什么李彦宏要一再强调AI原生应用才是机会所在?

在大模型领域,OpenAI,Meta,微团等早早入局,抢占先机,所以,现在已经不是“最好的时候”。除此之外,严苛的芯片管制和和高昂的训练成本也是摆在各大厂面前一道不可逾越的鸿沟。

据悉,在芯片层,美国更新出口管制,英伟达A100/800、H100/800等AI芯片被限制销售。退一万步讲,即便芯片不受限制,大模型训练的天量投入,同样令人望而却步。硬件方面,一颗A100(80GB)芯片的售价高达1.5万美元,H100的单价更是炒到了4万美元,而训练一个千亿级参数的大模型,通常需要上万颗A100的算力。

而与高昂投入相对应的,是充满不确定的变现之路。以OpenAI为例,开发 ChatGPT和GPT-4亏损了约5.4亿美元,仅维持运行ChatGPT,每天就要投入大约70万美元。但在商业化方面,今年2月,Open AI推出AI聊天机器人订阅服务,每月收费20美元;8月又发布了企业版ChatGPT,面向B端和G端用户。尽管OpenAI创始人声称公司平均每月收入超过一亿美元,但实际盈利能力如何,并没有确切答案。

头部AI公司尚且如此,国内这些还在暗自发力,努力向上爬的大厂自不待言。

“做出如何厉害的大模型”并不是大厂们发展AI的终极追求,如何将技术实际落地,面向C端,打造出现象级应用才是要紧事。


相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。