首页 > 北大

北大

  • 语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单

    机器之心专栏机器之心编辑部北京大学与腾讯等机构的研究者们提出了多模态对齐框架 ——LanguageBind。该框架在视频、音频、文本、深度图和热图像等五种不同模态的下游任务中取得了卓越的性能,刷榜多项评估榜单,这标志着多模态学习领域向着「大一统」理念迈进了重要一步。在现代社会,信息传递和交流不再局限

  • 北大AI课十讲,直播!

    ChatGPT出圈New Bing走红AI“黑科技”日益成为社会热点话题面对人工智能日新月异的发展你或许会问我们该怎样认识智能学科?智能学科的研究现状如何?发展趋势又有哪些?北京大学智能学科(智能学院、人工智能研究院、王选计算机研究所)联合北京通用人工智能研究院推出“立心之约——中学生AI微课十讲”

  • 北大最新多模态大模型开源:混合数据集训练,图像视频任务直接用

    训完130亿参数通用视觉语言大模型,只需3天!北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销。具体而言,团队按照提出的新框架,训练了一个新的VLM:Chat-UniVi。

  • 用语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单

    北京大学与腾讯等机构的研究者们提出了多模态对齐框架 ——LanguageBind。该框架在视频、音频、文本、深度图和热图像等五种不同模态的下游任务中取得了卓越的性能,刷榜多项评估榜单,这标志着多模态学习领域向着「大一统」理念迈进了重要一步。在现代社会,信息传递和交流不再局限于单一模态。

  • 3B模型不输7BLLaVA!北大多模态MoE模型登GitHub热榜

    混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。它仅有3B激活参数,表现却已和7B稠密模型持平,甚至部分指标比13B的模型还要好。

  • 训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解

    北京大学和中山大学等机构研究者提出了统一的视觉语言大模型 ——Chat-UniVi。通过构建图片和视频统一表征,该框架使得一个 LLM 能够在图片和视频的混合数据下训练,并同时完成图片和视频理解任务。更重要的是,该框架极大降低了视觉语言模型训练和推理的开销,

  • 微软联手北大,发布PPTC大模型测试基准

    DoNews11月7日消息,据品玩引述 HuggingFace 页面报道,微软研究院联手北京大学,共同发布了一款名为 PPTC 的大模型测试基准,可以用于测试大模型在PPT 生成方面的能力。研究团队表示,PPTC包含 279 个涵盖不同主题的多回合会话和数百条涉及多模式操作的说明。研究团队还提出了P