首页 > AI资讯 > 最新资讯 > 视频电话眼见未必属实!“AI换脸”“AI换声”金融诈骗如何防

视频电话眼见未必属实!“AI换脸”“AI换声”金融诈骗如何防

新火种    2023-10-08

  近年来,不法分子不断翻新诈骗手段,让金融消费者防不胜防,个人财产安全也受到严重威胁。10月7日,“双节”归来第一天,国家金融监督管理总局(即金融监管总局)北京监管局就发布了一则题为“识破欺诈诡计保护家庭财产”风险提示。

  在金融监管总局北京监管局本次公示的三则新骗局中,“AI换脸”金融诈骗及其骗术引起关注。

  据介绍,不法分子利用非法获取的个人信息,通过计算机算法仿真合成受骗者亲人、领导同事或公职人员的肖像面容与声音,冒充上述人员身份行骗。

  在获得受害者信任后使用事先准备好的套路话术向受害人发送银行卡转账、虚拟投资理财、刷单返利等诈骗信息,并利用视频通话,语音轰炸等手段进一步降低受害者的防备心,受害者往往在短时间内难以察觉异样,一旦听信诈骗分子的骗术并完成转账,对方便杳无音讯。

  金融监管总局北京监管局对此特别提示,这种“眼见”不为真。

  无独有偶的是,金融监管总局厦门监管局也曾在7月时就其发现的“AI换脸”“AI换声”金融诈骗做过专门风险提示。

  就此,金融监管总局厦门监管局亦向金融消费者提出“视频电话眼见、耳听未必属实”。

  据金融监管总局厦门监管局具体介绍,伴随着AI深度合成技术的成熟,AI深度合成产品和服务井喷式涌现,不少如“AI换脸”“AI换声”等尚处监管灰色地带的产业野蛮生长,为不法分子提供了可乘之机,成为网络欺诈和身份盗窃等犯罪活动的工具。这种利用AI技术融合他人面孔和声音、制造逼真的合成图像来实施的新型网络诈骗,呈现手段愈发多样、门槛大幅降低、辨别难度加大等特点,常令消费者放松警惕,短时间内造成较大损失。

  金融监管总局厦门监管局表示,“AI换脸”“AI换声”进行视频音频合成、实施诈骗的行为是利用新技术进行的诈骗,与传统诈骗行为在本质上没有区别,防范方式也万变不离其宗。

  具体来看,“多方核实、确认身份”“保护(个人)信息、拒绝诱惑”及“相互提示、共同预防”成为当前主要的个人防范方式。

  值得关注的是,从多方核实、确认身份的角度出发,金融监管总局厦门监管局进一步向金融消费者提示——包含转账汇款、提供个人信息、提供短信验证码等涉及重要决策或敏感信息的请求时,应保持高度警惕,通过主动更换渠道如电话、视频提问等方式,多重确认对方身份。

  此外,AI拟声、AI换脸包装作伪后的通话,虽能逼真地模仿原始人物的语言和行为,但仍充满破绽。“例如,眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。”金融监管总局厦门监管局表示。

(文章来源:新京报)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。