首页 > AI资讯 > 最新资讯 > AI推理时代:算力能耗瓶颈下的“密钥”何在?

AI推理时代:算力能耗瓶颈下的“密钥”何在?

新火种    2024-11-23

作者 | 程茜

编辑 | 漠影

2024年,千行百业对AI推理的需求将呈现出爆发式增长,行业对算力的需求远远超越以往。在这样的形势下,如何突破能耗瓶颈,进而获取更充足的算力,已经成为每个企业迫在眉睫且亟待解决的关键问题。

然而,当前的现实情况是有效算力供给已无法满足算力需求:一方面,从储备到应用的算力需求都愈发旺盛,OpenAI CEO召集全球投资者组建联盟为大模型构建基础设施,马斯克的无人驾驶出租车Cybercab为科技行业描绘了未来感十足的面面,还有性能愈发强大的GPT-o1等模型层出不穷。

另一方面,数据中心的算力潜能尚未被完全挖掘出来。数据中心常被认为是“耗电怪兽”,因为服务器运行伴随着热量释放,温度一旦超过极限值,服务器性能就会显著降低,限制数据中心算力发挥。于是各类创新技术涌现,试图让数据中心再次突破能效瓶颈,释放出被束缚的算力潜能。

这背后的关键变量就是冷却技术,液冷技术作为推手帮助数据中心一次次突破制约。就在联想集团Tech World上,联想集团董事长兼CEO杨元庆与NVIDIA创始人兼CEO黄仁勋,这两大全球科技行业顶尖企业的领军者同台,联合发布全新液冷AI服务器,勇闯“最大工业革命”。

Scaling Law要失效了?Ilya曝自家创企采用替代方法,称行业回归“发现”阶段

今天,伴随2024/2025财年Q2财报,联想集团发布《Game of AI》系列知识科普视频的第二集《数据中心:如何与世界交换算力》。

Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。