无需额外训练提升模型30%性能!DeepMind科学家点赞MIT博士生成果
一个来自MIT博士生的惊人发现:
只需对Transformer的特定层进行一种非常简单的修剪,即可在缩小模型规模的同时显著提高模型性能。
效果主要体现在文本理解任务上,最高可达30%。
这在3个模型(LLama2、GPT-J和Roberta)和8个不同数据集上都得到了验证(包含认知推理、世界知识等)。
除了文本理解,它也适用于强化学习。
当然,更重要的是,这个操作只需在模型训练完成之后进行,不需要额外的参数和数据。
DeepMind研究科学家看完都来点赞了:
那么,它具体怎么做的?
方法概述该方法全称“ Layer-Selective Rank Reduction”,简称“LASER”。
这是一种选择性地去除LLM权重矩阵高阶组件(components)的干预措施,操作就在Transformer模型的特定权重矩阵和层中进行。
研究发现,即使完全去除90%以上,模型性能一般也不会下降。
具体而言,LASER通过rank-k近似来替换Transformer模型中的特定权重矩阵(W),有时仅减少包含前1%组件的矩阵,也能达到不错的效果。
一个单步LASER干预措施包含三个参数:
类型(T)、层号(ℓ )和降秩(ρ,全称rank reduction)。
这些值组合在一起描述哪个矩阵将被其低阶近似所取代,以及近似的程度。
其中参数类型对我们将要干预的矩阵进行分类,而矩阵W来自MLP和注意力层。
层号表示我们要介入的层(第一层从0开始索引)。比如Llama-2有32层,因此ℓ ∈{0,1,2,···31}。
最后,ρ∈[0,1)描述在进行低秩近似时应该保留最大秩的分数。
下图为LASER操作的一个示例,它更新的是第L层Transformer块中MLP的第一层权重矩阵。
实验发现:
不同层类型之间的降秩效果并不统一,主要可在MLP层的后续transformer块中执行LASER操作观察到,在注意力层中则很微弱。
同时,如果我们一气儿在多个层上执行LASER还可以进一步增强模型性能,超越单层所带来的改进。
具体而言,有时可以超过模型原始性能的2倍。
除了最高可提升模型30%的文本理解性能,它还对强化学习有效。
在此,作者评估了LASER对一个训练和评估Sokoban游戏(通过移动块推入洞中)的决策transformer模型的影响。
结果发现,有了LASER,模型可以多解决3%的任务。
原因分析
为什么这样一个简单操作就能带来模型性能如此的提升?
作者用GPT-J模型的结果来分析(选该模型主要是该它的训练数据DT rain是公开的),即通过计算训练数据中“纠正事实”发生的频率,来弄清究竟是哪些数据点从中受益。
结果发现,性能最大的提升发生在低频样本上。
如下图所示c,条形图显示了LASER为数据提供的提升量,准确性的最大改进来自于训练数据中出现频率较低的数据点。
作者解释,这很明显,消除高阶组件“去噪”了模型,并有助于恢复隐藏的、频率较低的信息。
对此,DeepMind研究员表示相当有道理:
那么问题又来了:矩阵中的高阶组件究竟存储了哪些会破坏模型的内容?
通过近似这些组件的以学习权重矩阵,作者发现:
当原始的、未修改的模型不能正确回答时,高阶组件偶尔会用一些没有实际含义的高频词(例如“a”、“the”、“of”)来回答问题,或者直接预测与正确答案具有相同语义类型但不正确的实体。
而使用LASER去除这些高阶组件后,就可以解决这个问题,使模型正确响应。
总的来说,这项研究对于理解信息如何存储在LLM中、如何压缩模型规模以及更广泛地理解大型语言模型的行为影响有很大用处。
目前也还有很多亟待解决的问题,比如:
1、为什么权重矩阵中的高阶组件在训练过程中会积累噪声答案?
2、模型架构和结构选择对这种现象的发生有何影响?
作者介绍本文一共三位作者,一作为MIT EECS在读博士生,她在微软实习时产出了这项研究。
剩下两位都是她本次研究的指导老师,全部为微软纽约研究院高级研究员,具有同等指导贡献。
一位是Jordan T. Ash,博士毕业于普林斯顿大学,研究方向为深度学习和顺序决策相关问题。
另一位是Dipendra Misra,研究方向为交互式学习、NLP和表征学习。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。