首页 > 指令

指令

  • 用GPT-4V“操纵”iPhone,无需训练可完成任意指令,“Siri终结的开始”

    一项研究发现:无需任何训练,GPT-4V就能直接像人类一样与智能手机进行交互,完成各种指定命令。比如让它在50-100美元的预算内购买一个打奶泡的工具。它就能像下面这样一步一步地完成选择购物程序(亚马逊)并打开、点击搜索栏输入“奶泡器”、找到筛选功能选择预算区间、

  • 用GPT-4V“操纵”iPhone无需训练可完成任意指令“Siri终结的开始”

    一项研究发现:无需任何训练,GPT-4V就能直接像人类一样与智能手机进行交互,完成各种指定命令。比如让它在50-100美元的预算内购买一个打奶泡的工具。它就能像下面这样一步一步地完成选择购物程序(亚马逊)并打开、点击搜索栏输入“奶泡器”、找到筛选功能选择预算区间、

  • 康奈尔中国博士生打造AI声呐眼镜,能连续识别31条无声语音指令

    “据我们所知,EchoSpeech 是第一个使用眼镜框来进行无声语音识别的工作。论文发表之后我们收到了很多邮件。在发信人中,有即将被移除声带的癌症患者、有语音障碍的孩子、也有来自医生的。这些反馈激励着我们更加努力地将本次成果带出实验室,做出真正能够改变人类生活的产品。”清华大学校友、目前正在美国康奈

  • 北大提出首个通用指令导航大模型系统|CoRL24

    想象一下当你躺在沙发上,只需要不假思索地说出指令,机器人就能帮你干活,是不是听起来就十分惬意?如今这种科幻电影中的场景正在变为现实,来自北京大学的助理教授、博士生导师董豪团队近日提出首个通用指令导航大模型系统InstructNav。不论是寻找物体,走到指定位置,还是满足抽象的人类需求,只要你说出指令

  • 北大具身智能新成果:无需训练,听指令就能灵活走位

    北京大学董豪团队具身导航最新成果来了:无需额外建图和训练,只需说出导航指令,如:我们就能控制机器人灵活移动。在此,机器人靠的是主动与大模型构成的“专家团队”沟通完成指令分析、视觉感知、完成估计和决策测试等一系列视觉语言导航关键任务。目前项目主页和论文都已上线,代码即将推出:机器人如何根据人类指令导航

  • 北大新成果:无需训练,机器人听指令就能灵活走位

    要点:1. 北大研究团队开发了一种具身导航系统,使机器人可以根据口头指令在室内环境中移动,无需额外训练或建图。2. 这一系统涉及多个关键任务,包括指令分析、视觉感知、完成估计和决策测试,由大模型专家团队协同完成。3. DiscussNav系统通过与大模型专家互动,使机器人能够根据人类指令移动,解决了