首页 > AI资讯 > 最新资讯 > 九方智投控股人工智能部门两篇论文被自然语言处理顶会NAACL2025录用

九方智投控股人工智能部门两篇论文被自然语言处理顶会NAACL2025录用

新火种    2025-03-07

北美计算语言学协会年会(The North American Chapter of the Association for Computational Linguistics,NAACL)成立于1998年,每年举办一届,是自然语言处理和计算语言学领域的重要国际学术会议。会议涵盖的内容包括但不限于自然语言理解、语言生成、机器翻译、语音识别、文本挖掘、信息检索、语言资源建设、多模态交互、社会影响和伦理问题等前沿话题。近日NAACL 2025公布了录用论文列表,九方智投控股(9636.HK)人工智能项目部共有两篇长文被录用。NAACL在中国计算机学会CCF推荐列表中认定为B类学术会议。本次会议将于2025年4月29日-5月4日在美国新墨西哥州阿尔伯克基举行,九方智投控股也将现场参会。

NAACL 2025官网会议宣传海报

这两篇论文主要是聚焦大语言模型LLM高效参数微调方向,其部分研究成果已在九方灵犀和九方智研得到实际应用。在结构化剪枝方向,该论文采用了一种性能模型,结合离线元学习(offline meta-learning) 和在线增量学习(online incremental learning),探索每一层的最优秩值配置。在混合精度量化方向,该论文为transformer架构中的每一层分配量化精度,并通过贝叶斯优化(Bayesian Optimization)优化精度分配策略,从而在模型准确性与内存效率之间实现平衡。这是九方智投控股九章证券领域大模型FinSphere和九方智能体FinSphere Agent核心技术部分研究成果的阶段性展示,同时也是践行九方智投控股“科技+投研”战略的又一例证。

题目:RankAdaptor: Hierarchical Rank Allocation for Efficient Fine-Tuning Pruned LLMs via Performance Model(RankAdaptor:基于性能模型和分层秩分配方法实现高效微调剪枝大语言模型)

论文作者:周昌海,韩世杰,杨立宁,周余华,陈旭,王逸斌

通讯作者:李宏广

通讯单位:九方智投控股

合作单位:复旦大学,哥伦比亚大学,武汉大学等

录用类别:NAACL 2025 Findings长文

论文链接:https://arxiv.org/abs/2406.15734

RankAdaptor技术架构图

摘要:大型语言模型(Large Language Models, LLMs高效压缩已经成为一个越来越受关注的研究方向。然而,压缩后模型性能的恢复仍然是一个重大挑战。目前,LLM压缩的常见实践是采用结构化剪枝(structural pruning),并结合利用Low-Rank Adaptation (LoRA) 算法。然而,结构化剪枝对模型架构的不均匀修改,加之标准LoRA在线管道中对各层采用固定配置分配,导致被剪枝模型在多种下游任务中的性能表现不佳。

为了解决这一问题,该论文提出了RankAdaptor,一种分层级别的秩分配方法,能够根据各层特定的恢复需求实现剪枝后LLM的高效微调。该论文采用了一种性能模型,结合离线元学习(offline meta-learning)和在线增量学习(online incremental learning),探索每一层的最优秩值配置。在主流基准测试上的全面实验表明,RankAdaptor在各种剪枝设置和LLM架构下始终优于最先进的方法,性能提升范围从0.7%到5.5%不等。

题目:QPruner: Probabilistic Decision Quantization for Structured Pruning in Large Language Models(QPruner:大语言模型结构化剪枝的概率决策量化方法)

论文作者:周昌海,周余华,王逸斌,韩世杰,乔巧

通讯作者:李宏广

通讯单位:九方智投控股

合作单位:复旦大学,哥伦比亚大学,浙江大学等

录用类别:NAACL 2025 Findings长文

论文链接:https://arxiv.org/pdf/2412.11629

QPruner技术架构图

摘要: 大型语言模型(Large Language Models, LLMs)的兴起显著推动了各种自然语言处理(NLP)任务的发展。然而,这些模型对资源的需求带来了巨大的挑战。结构化剪枝是一种有效的模型压缩方法,可以减少模型规模,但通常会导致显著的准确性下降,从而需要通过参数更新进行适配。然而,这种微调过程需要大量内存资源,限制了其应用范围。

为了解决这些问题,该论文在结构化剪枝框架中引入量化技术,在微调和推理过程中降低内存消耗。然而,剪枝和量化结合产生的误差会显著增加微调的难度,因此需要更精细的量化方案。为此,该论文提出QPruner,一个新颖的框架,首先通过结构化剪枝减少模型规模,然后结合逐层的混合精度量化策略。针对目标任务的重要性,为每一层分配量化精度,并通过贝叶斯优化(Bayesian Optimization)优化精度分配策略,从而在模型准确性与内存效率之间实现平衡。

在基准数据集上的大量实验表明,QPruner在节省内存的同时显著优于现有方法,并能够保持甚至提升模型性能。

九方智投人工智能部门是九方智投控股(9636.HK)旗下品牌九方智投下设的人工智能核心研发机构,隶属于技术产品中心。目前研发团队人员来自包括中国科学技术大学、复旦大学、香港科技大学等知名高校的博士与硕士。

当前研究范围涵盖九方金融智能体FinSphereAgent、九章证券领域大模型FinSphere、多模态图文匹配FinSphere-V、高效参数微调和AutoML&LLM等领域。目前已与多家单位包括香港科技大学(广州)、粤港澳大湾区数字经济研究院(IDEA研究院)、约翰霍普京斯大学等建立了良好的合作关系,并于ACL、EMNLP、NAACL、COLING等人工智能顶级会议上发表多项团队研发成果。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。