上海人工智能实验室开源书生·浦语20B模型消费级GPU即可运行
9月20日,上海人工智能实验室等机构发布书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区开源首发、免费商用。
书生·浦语(InternLM)大语言模型由上海人工智能实验室联合多家机构共同推出。今年6月,InternLM千亿参数(104B)语言大模型首次发布,现已经历多轮升级。7月,上海人工智能实验室开源书生·浦语70亿参数的轻量级版本InternLM-7B,且在业内率先开源贯穿数据、预训练、微调、部署和评测的全链条工具体系。本次发布的InternLM-20B是一款中量级大模型,相较于InternLM-7B,其理解能力、推理能力、数学能力、编程能力等都有显著提升。
相比于此前国内陆续开源的7B和13B规格模型,20B量级模型具备更强大的综合能力,复杂推理和反思能力尤为突出,能为实际应用场景提供更有力的性能支持;同时,20B量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级GPU上,因而在实际应用中更为便捷。
相比于此前的开源模型,InternLM-20B能以不足1/3的参数量,测评成绩达到了Llama2-70B的水平,同时支持数十类插件,上万个API接口功能,还具备代码解释和反思修正能力。另外,InternLM-20B在研发训练的过程中,研究团队进行了基于SFT和RLHF两阶段价值对齐,并通过专家红队的对抗训练大幅提高其安全性。
(文章来源:上观新闻)
相关推荐
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。