苹果发表论文,解决“在手机内存上运行大模型”
据媒体报道,近日,苹果发布了一篇论文,介绍了一种可以再超出可用DRAM容量的设备上运行LLM(大语言模型)的方法。通过大幅提高内存使用效率,这项新研究支持有限容量的设备运行内存2倍大小的LLM,GPU的推理速度可以提升数十倍。这意味着,该项突破性研究扩大了LLM适用性和可及性,苹果将生成式AI集成到iOS 18的计划或将加快推进。
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。