大模型元年“百家争鸣”,AI巨头找到集体救赎!2024迎来应用浪潮?
2023年的科技圈,如果说有什么出圈热词,那一定是大模型。
ChatGPT的爆火,将大模型带入公众视线,也给在业绩泥潭中挣扎的AI公司们带去了生的希望,于是在这一年,通用大模型、行业大模型、云侧大模型、端侧大模型……各式各样的大模型开始出现,各行各业都想从中分一杯羹。
转眼一年过去,2024年即将到来,新的机遇也将来临,猎豹移动董事长兼CEO、猎户星空董事长傅盛在近日由中国互联网协会、微博、新浪新闻主办的“数字力量,探索无穹”2023探索大会(以下称“2023探索大会”)上预测,2024 年将是AI大模型应用的浪潮年。但与此同时,整个产业的发展仍然伴随着挑战,包括数据质量、算力需求、安全性、生态等需要克服的难题。
大模型“千姿百态”
关于大模型的探索早在几年前便开始了,但直到2023年才算爆发,也让业内真正对大模型这个人工智能的细分技术领域寄予厚望。
跟随OpenAI的步伐,互联网大咖们率先做出表率。国外,谷歌先后推出第二代大语言模型PaLM 2和名为Gemini的新人工智能模型,亚马逊发布了自研大模型Titan,Meta推出了类GPT的大语言模型LLaMA,微软发布了一款名为Phi-2的人工智能模型;国内,阿里巴巴的“通义千问”、百度的“文心一言”、科大讯飞的“星火认知大模型”、京东的“言犀产业大模型”、360集团的“360智脑”、字节跳动的“火山方舟”、华为的盘古大模型……也一一亮相。
不过,企业们并不局限于踏入这个领域, 还将大模型做出了花样。
从应用的角度来看,除了通用大模型,企业们同时在探索行业大模型。比如,华为云盘古大模型已在八个应用领域实现落地并形成商业闭环,包括盘古矿山大模型、盘古政务大模型、盘古金融大模型、盘古气象大模型等;360公司基于360智脑打造的企业级垂直大模型,已在金融、医疗、教育、税务、企服等近10个行业应用落地;今年10月,在星火大模型的基础上,科大讯飞推出了羚羊工业大模型、科技文献大模型、讯飞星火医疗大模型,以及联合行业龙头共同发布的12个行业大模型,包含金融、汽车、运营商、工业、住建、物业、法律等行业。
从部署平台的角度来看,大模型还分为云侧大模型和端侧大模型。端侧大模型是众多手机厂商切入大模型领域的一个方式,与端侧大模型相对应的是云侧大模型,如果完全用云计算提供服务,用户数据可能得不到保障。
荣耀CEO赵明此前在谈到大模型领域的发展趋势时表示,未来大模型技术应该是云侧和端侧相结合,端侧大模型可以帮用户更好地与云侧大模型进行沟通,提升后者的使用效率。“端侧大模型对用户理解最深,可以把一些基本的信息交互到云侧,帮助用户在保护个人数据隐私的同时,把背后的潜藏意识跟云侧大模型沟通,从而平衡端侧和云侧提供的服务。”
当然,业内对于大模型的思考还在继续,未来大模型的种类只会更多。复旦大学特聘教授、CCF/CAAI Fellow王晓阳在2023探索大会上表示,“新的大模型出现,新的人工智能手段出现,使得我们在数字经济这一块能够有很大发展。数字技术赋能实体经济,数字技术本身同样可以用人工智能方式来赋能、加速,比如在数据分析方面期望数据能说话。”
AI企业寄予盈利厚望
一直以来,人工智能都被冠以“雷声大雨点小”的名号,过去提出的关于人工智能的畅想,大部分还只是概念,并未付诸实践,只有语音识别、人脸识别、工业机器人等算是真正得以普及和惠及人类的人工智能技术。
2023年ChatGPT的爆红,才让公众对真正的人工智能产生希望。于是,除了互联网大咖们,这些AI公司也纷纷推出大模型产品,如商汤科技的“商汤日日新大模型”、云从科技的“从容大模型”。
这些以计算机视觉为主要研究方向崛起的AI公司,虽然在过去几年获得了资本的青睐,却始终难以迈过盈利这道门槛。比如,今年前三季度,云从科技亏损约4.01亿元;格灵深瞳虽然在2022年成为率先盈利的那一家,却在2023年重新陷入亏损,前三季度实打实地亏损了1728万元。
然而,大模型虽然给了行业希望,想要盈利其实同样很难。以行业内最杰出的OpenAI来说,据媒体报道,OpenAI首席执行官山姆·阿尔特曼最近对公司员工表示,OpenAI今年营收有望达到13亿美元,较去年收入增长36倍。
但ChatGPT和芯片一样是个烧钱的领域。不论前期研发费用和人工费用,训练一个高质量的ChatGPT模型的费用通常在数万美元到上千万美元之间,据国盛证券报告《ChatGPT需要多少算力》估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM(大型语言模型),训练成本介于200万美元至1200万美元之间。此外,据AI行业数据分析师Tom Goldstein,OpenAI每月还要至少花费300万美元用于运行成本。
因此,即便是OpenAI,目前也是处于亏损状态的。《财富》数据显示,OpenAI在2022年净亏损5.445亿美元。
对于盈利,360公司方面对《华夏时报》记者表示,公有大模型无法实现成本可控。“许多企业其实只需要大模型写代码的能力,百亿级垂直大模型就能满足需求,如果使用千亿级大模型就是成本的浪费。所以,在控制成本方面,建议企业构建垂直大模型。在用公开数据训练的‘通识’大模型基础上,训练专有大模型,就能做到‘事半功倍’,为企业降本增效。”
多方面因素制约发展
在大模型纷纷推出后,2023年8月31日,首批国产大模型终于面向公众开放服务,包括百度的“文心一言”、百川智能的“百川大模型”、商汤日日新大模型旗下自然语言应用“商量SenseChat”等。
经过几个月的“渗透”,几大平台大模型的用户量也直线上升。据百度公开数据,百度文心大模型调用量居国内首位,日均调用量达数千万次,每月服务企业超过1万家;截至11月,文心一言用户数超过7000万,覆盖场景4300个。另据科大讯飞公布的数据,截至今年10月,各类用户已达1200万,其中有不少访问量达一两千次的深度用户,而开发者团队数量也超过17万,是业界开发者团队中最多的。
然而,在用户迅速增长的过程中,一些仍然未能攻克的难题也暴露了。
科大讯飞方面对《华夏时报》记者表示,通用认知大模型的技术发展还有三大难题需要攻克,包括大模型的知识幻想问题、大模型自进化和个性化问题、多模态及具身智能训练问题。“首先,大模型的知识记忆是模糊的,同时缺少证明判别知识有效性的机制,所以有时候会出现一些答非所问、‘胡编乱造’的情况;其次,目前认知大模型有难以区分新知识、错误反馈的情况,并且个性化信息与个性化成本很高。”
而在2023探索大会上,新智元创始人&CEO杨静指出,很多的创业公司都面对算力紧缺和算力荒,这是百模大战的瓶颈,就像互联网的瓶颈在后厂村,大模型的瓶颈就在算力这方面,算力的确是大模型发展的驱动力。
深度科技研究院院长张孝荣则认为,大模型发展的制约因素主要包括以下几个方面:首先是优质数据,大模型需要大量的数据进行训练,而数据的获取和处理是一个复杂且耗时的过程;其次是先进GPU,大模型的算力需求非常高,需要强大的AI芯片支持,目前主要是GPU芯片;再次是准确性,大模型的解释性和透明度也是一个重要的问题,如何让模型的决策过程更加透明,以便用户理解和信任,是当前研究的重要方向;最后是生态,大模型的应用生态尚未完全建立,如何将大模型应用到实际场景中,实现商业化价值,也是一个需要解决的问题。
畅想2024年产业方向
2024年马上就要到来,来自不同企业的业内人士和专家对于下一年的大模型有着不同的畅想。
在2023探索大会上,傅盛表示:“2024 年将是AI大模型应用的浪潮年,一定会出现很多没有出现过的应用,实现效率的提升,实现生产力的变革。”
不过,张孝荣认为傅盛的观点过于乐观,他对《华夏时报》记者表示,2024年GPT5将会发布,如果GPT5克服了“计算幻觉”,解决了价值观对齐问题,有可能引发AI大模型大规模应用,目前这方面信息不多,仍然需要观察。“国内大模型尚未达到类似水平,大多数停留在GPT3.5水平上探索,技术成熟度有限,产业生态也不会有太多变化。”
智谱AI COO张帆在2023探索大会上称:“在落地大模型上,今天的企业从整体来思考2023 年可能是一个模型为王的时代,所以大家只看一些参数,看一些榜单。2024 年一定是落地为王、商业价值为王的时代,大家都会关注模型怎么转化为用户价值,商业价值。”
百川智能技术联创陈炜鹏认为:“未来AI爆发出来的机会,一定是围绕着AI新的特性去创造的。其实我们应该更多去思考AI这个技术带来什么样的新的可能性。围绕这个可能性构建我们的产品,或者构建我们未来的商业模式。”
商汤科技数字文娱事业部总经理栾青则表示:“整个大模型实际上是一个应用场景和行业非常广泛的操作系统,它必将不是单一的应用,也不是单一的一种体验。相信会有非常多的企业、行业,都会在这个方向上体验到效率的迭代和更新,可能行业中的很多算法都要被重做一遍。”
(文章来源:华夏时报)
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。