首页 > AI资讯 > 最新资讯 > 研究:AI无法模拟人脑对动态面部表情的处理

研究:AI无法模拟人脑对动态面部表情的处理

新火种    2023-11-20

**划重点:**

1. **研究发现:** 人工智能(AI)的面部识别技术虽然能够模仿人类表现,甚至在某些方面超越,但在处理动态面部表情时,与人脑处理方式存在显著差异。

2. **问题根源:** 深度卷积神经网络(DCNNs)在识别静态图像方面表现出色,但由于当前设计主要用于静态图像识别,对于动态表情的处理相对欠缺。

3. **研究建议:** 为了更准确地模拟人脑对面部处理的方式,AI开发者需要构建基于真实生活刺激(如动态视频中的面部)的算法,而不是仅仅依赖静态图像。

站长之家11月14日 消息:人工智能在面部识别技术方面的发展表现出色,甚至有时超越了人类的表现。然而,一项最新研究发现,尽管AI在静态图像上的识别能力强大,但在处理动态面部表情时,其表现与人脑存在显著差异。

人脸机器人1

图源备注:图片由AI生成,图片授权服务商Midjourney

研究团队来自达特茅斯学院与博洛尼亚大学,他们针对深度卷积神经网络(DCNNs)进行了研究,这是人工智能中用于识别视觉图像的关键组件。这种网络的命名和结构都灵感来自人脑的视觉通路组织,具有逐层增加复杂性的多层结构。

然而,问题出现在人脑处理动态面部表情时。当前的AI设计主要用于静态图像的识别,而这项研究发现,AI无法有效模拟人脑在处理变化表情的情境中的工作方式。

研究中,团队通过使用不同族裔、年龄和表情的面部视频进行测试,与以往主要使用静态图像不同。结果显示,尽管人脑对面部的神经表征在参与者之间高度相似,而AI对面部的人工神经编码在不同DCNNs之间也高度相似,但是与DCNNs的脑活动相关性较弱。这表明,目前的人工神经网络仅能捕捉到人脑信息的一小部分,尤其是在处理动态面部时。

研究的共同主笔之一Jiahui Guo士表示:“科学家们试图将深度神经网络作为了解大脑的工具,但我们的研究结果表明,这个工具目前与大脑相去甚远。”

该研究强调,人脑在面部处理中不仅仅是确定一个面孔与另一个面孔是否不同,还包括推断其他信息,如思维状态、友好度和信任度。而当前的DCNNs仅被设计用于识别面孔,无法涵盖这些复杂的认知过程。

詹姆斯·哈克斯比教授指出:“当你看着一个面孔时,你获得了关于那个人的很多信息,包括他们可能在思考什么、感觉如何,以及他们试图传达什么样的印象。”相比之下,AI只能确定一个面孔是否与另一个不同,无法进行更深层次的认知处理。

研究建议,为了使AI网络更准确地反映人脑处理面部信息的方式,开发者需要构建基于真实生活刺激的算法,而不仅仅是依赖静态图像。这意味着在设计人工智能系统时,需要考虑动态面部表情的复杂性,以更好地模拟人类认知和社交互动的过程。

Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。