HuggingFace联创发推:高质量微调数据集才是“卷”大模型的正确姿势
最近,NLP大牛、HuggingFace联合创始人Thomas Wolf 发了一条推特,内容很长,讲了一个 “全球三大洲的人们公开合作,共同打造出一个新颖、高效且前沿的小型AI模型” 的故事。
故事是这样开始的,在几个月前,巴黎的一个新团队发布了他们首个模型:Mistral 7B,这个模型体积小巧但性能强劲,在基准测试中的表现超过了所有同类模型。
这还是个开源项目,意味着大家都可以在此基础上进行开发。
另一个研究模型微调和对齐的H4团队的两名成员,在Hugging Face举办的一次小聚中,他们边喝咖啡边讨论用斯坦福大学新发表的DPO方法对Mistral 7B这个模型进行微调的可能性,最后他们决定用已经构建好的代码库先来尝试下。
之后,他们在HF hub上找到了一些公开的数据集,包括由面壁智能和清华大学NLP共同支持的OpenBMB新近开源的两个大规模、高质量的微调数据集:UltraFeedback和UltraChat。
UltraFeedback,一个大规模、多样化、细粒度 的偏好数据集,包括 25万 条对话数据以及相应的偏好标注数据。在非社区标注的偏好数据集中,这一数据规模排在首位。并且,其中每条偏好标注均包含四个方面的细粒度得分与的详细文字说明。
UltraChat则是高质量的对话数据集,包含了 150 余万条多轮指令数据。调用多个 ChatGPT API 相互对话,从而生成多轮对话数据。
经过几轮实验证明,使用OpenBMB两个数据集训练出来的新模型非常强大,是H4团队 在伯克利和斯坦福的基准测试中见过的最强模型。
不久,这个名为“Zephyr”的模型、研究论文以及所有细节都向世界公开了,此后全球各地的公司开始应用这一模型。LlamaIndex,一个知名的数据框架和社区,分享了这个模型在实际用例基准测试中超乎预期的表现,与此同时,研究者和实践者们在Hugging Face hub上热烈讨论着这篇论文和相关工作。
Zephyr-7B性能 超越参数十倍之大的 LLaMA2-70B-Chat。
短短几周就创造了这个 开源神话。Thomas Wolf指出,这一切都得益于世界各地(欧洲、加利福尼亚、中国)对知识、模型、研究和数据集的开放获取,以及人们在AI上相互建设、相互借鉴,共同创造出真正有价值的高效开放模型的理念。
开源精神以自由和合作为信条,让人类再次联合起来重建通天巴别塔。开源旨在打破人为壁垒,通过开放透明的方式促进技术和知识的创新共享。对于个体或组织而言,拥抱开源则是一种强者心态。
值得一提的是,OpenBMB开源社区背后的国内领先的人工智能公司 面壁智能,一直联合清华大学NLP实验室为大模型事业做高质量的开源贡献的同时,一直深耕大模型底层的数据工作。
就拿此次被Zephyr-7B运用的UltraFeedback为例,UltraFeedback 从多个社区开源的指令数据集中收集了约 6 万条指令。基于这些指令,UltraFeedback 从 17 种不同架构、参数量、训练数据的模型中随机选取 4 种不同模型,为每条指令生成4种有区分度的回复,极大地提升了指令和模型的多样性。
基于 UltraFeedback,团队还训练了UltraRM、UltraCM两个模型来进一步辅助模型评测和模型反馈学习。
在大家都在卷模型参数时,一个基于高质量数据集的7B模型就打败了参数十倍之大的 LLaMA2-70B-Chat。这说明了什么?
说明,底层的数据工作才是最稀缺的和有时间价值的,这或许是各家各派大模型在百模大战中的突破口之一。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。