首页 > 北大

北大

  • 北大北邮的门,机器人开

    搜集了328×204条数据,只为让机器人把开门这一件事做到极致。这是来自北大董豪团队和北邮何召锋团队的新研究。做到了开箱即用,不需要在现实世界重新微调,就能操控房门、车门等各种能想到的门。无论是普通的圆形的门把手;还是需要钥匙才能打开的储物柜;甚至是开保险柜,对它来说都不在话下。目前项目主页和论文都

  • 北大具身智能新成果:无需训练,听指令就能灵活走位

    北京大学董豪团队具身导航最新成果来了:无需额外建图和训练,只需说出导航指令,如:我们就能控制机器人灵活移动。在此,机器人靠的是主动与大模型构成的“专家团队”沟通完成指令分析、视觉感知、完成估计和决策测试等一系列视觉语言导航关键任务。目前项目主页和论文都已上线,代码即将推出:机器人如何根据人类指令导航

  • 北大智能图形学初探:形与力协奏,知识与数据交融

    作者丨青暮编辑丨岑峰元宇宙被认为是互联网的自然迭代阶段,是人类社会在发明语言、文本、数学、图像之后,信息爆炸逼迫我们将数据不断抽象为高维数据的当下,将交流媒介彻底具象化的另一极革命。有句话说得好,“文化即元宇宙”。元宇宙的世界源于现实,又别于现实、超越现实,我们可以轻易在其中跨越物理距离面对面交流,

  • 搜索图片有新招了!北大提出图像检索新方法|ECCV2024

    从一大堆图片中精准找图,有新招了!论文已经中了ECCV 2024。北京大学袁粒课题组,联合南洋理工大学实验室,清华自动化所提出了一种新的通用检索任务:通用风格检索(Style-Diversified Retrieval)。一句话,这种检索任务要求模型面对风格多样的查询条件时,依然能精准找图。

  • 语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单

    机器之心专栏机器之心编辑部北京大学与腾讯等机构的研究者们提出了多模态对齐框架 ——LanguageBind。该框架在视频、音频、文本、深度图和热图像等五种不同模态的下游任务中取得了卓越的性能,刷榜多项评估榜单,这标志着多模态学习领域向着「大一统」理念迈进了重要一步。在现代社会,信息传递和交流不再局限

  • 北大陈宝权教授:从图形计算到世界模型

    世界模型是当前的热点话题。我这里分享的题目是 “图形计算到世界模型”,作为抛砖引玉,试图挖掘和展示图形计算和世界模型两者之间可能建立的紧密内在联系。GAMES 这个平台上的报告,主要是为了交流,鼓励大胆提出想法,引发讨论,而不是单纯的宣读一些既有成果。所以,我为此做了一些调研和思考,期待通过这个报告