国产开源模型标杆大升级,重点能力比肩ChatGPT!书生·浦语2.0发布,支持免费商用
1月17日,新一代大语言模型书⽣·浦语2.0(InternLM2)正式发布并开源。2种参数规格、3种模型版本,共计6个模型,全部免费可商用。它支持200K超长上下文,可轻松读200页财报。200K文本全文范围关键信息召回准确率达95.62%。不借助任何外部工具,内生数理能力超过ChatGPT。
1月17日,新一代大语言模型书⽣·浦语2.0(InternLM2)正式发布并开源。2种参数规格、3种模型版本,共计6个模型,全部免费可商用。它支持200K超长上下文,可轻松读200页财报。200K文本全文范围关键信息召回准确率达95.62%。不借助任何外部工具,内生数理能力超过ChatGPT。
大模型3月14日,商汤科技发布多模态多任务通用大模型“书生(INTERN)2.5”,在多模态多任务处理能力方面实现多项全新突破,其卓越的图文跨模态开放任务处理能力可为自动驾驶、机器人等通用场景任务提供高效精准的感知和理解能力支持,向通用人工智能迈出坚实的一步。“书生(INTERN)”最初版本由商汤科
继今年7月在2023世界人工智能大会发起成立“中国大模型语料数据联盟”(以下简称“语料数据联盟”)之后,8月14日,上海人工智能实验室(上海AI实验室)宣布,联合语料数据联盟成员单位共同开源发布“书生
人民网上海6月7日电随着AI大语言模型越来越多地表现出接近人类的智能,面向人类设计的高难度、综合性考试被越来越多地引入对语言模型的智能水平进行评测。OpenAI在其关于GPT-4的技术报告中就主要通过
9月20日,上海人工智能实验室等机构发布书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区开源首发、免费商用。 书生·浦语(InternLM)大语言模型由上海人工智能实验室联合多家机构共同推出。今年6月,InternLM千亿参数(104B)语言大模型
作者丨郭 思编辑丨陈彩娴目前,开源大模型已经成为AI领域中的热门话题。中信所报告近期指出,目前超过一半国内发布的大模型已经实现了开源,其中开源的主力是高校和科研机构,如清华大学的ChatGLM-68、复旦大学的MOSS以及百度的文心系列大模型。在这其中,自然语言处理是大模型研发最活跃的领域。易于使用
“我们实验室在黄浦江畔,希望成为我国人工智能产业的源头,为产业生态提供基座和支撑。”站在西岸国际人工智能中心37层的落地窗前,上海人工智能实验室领军科学家林达华教授告诉解放日报·上观新闻记者。透过窗户,可俯瞰上海西岸的浦江美景。