首页 > AI资讯 > 最新资讯 > 新一轮AI技术的普及是否成为全球各国网络诈骗的“帮凶”?

新一轮AI技术的普及是否成为全球各国网络诈骗的“帮凶”?

新火种    2023-09-21

◎张园

自从去年年底ChatGPT横空出世,人们的目光又聚集在了人工智能上,近一年来,关于人工智能和AI的话题热度居高不下,总是能轻易地吸引人们的关注,蹿上新闻热榜。虽然人工智能的应用对人类很多领域有了新的发展,但拥有这种便利和优势的同时,也意味着发起网络攻击的技术门槛将进一步降低,互联网将面临更广泛的安全威胁。

今年以来,国内关于AI造假的新闻备受关注,前有AI论文造假和新闻造假,后有疑似AI换脸的明星出现在直播间卖货,五月份内蒙古包头的一起“AI电信诈骗10分钟骗走430万”更是登上微博热搜,引起全民关注。与此同时,海外不少国家也深陷AI诈骗猖獗的漩涡中,同样也有不少利用AI克隆声音、脸部等进行诈骗勒索的新闻,部分案件涉案金额令人咋舌。

纽约网络公司DeepInstinct在2023年6月对650名网络安全专家进行的一项调查显示,四分之三的受访专家发现,过去一年里,网络欺诈事件有所增加,85%的受访者将这种增加归因于坏人使用了生成式人工智能。

随着新一轮AI技术的普及,未来人类面临的反诈防诈挑战可能更严峻。2023年9月11日至17日是我国第十个国家网络安全宣传周,对于全球多个国家而言,反AI诈骗或许正在成为全球一种新的共识。

人们更加好奇,日渐强大的人工智能未来可以走多远?他的实际利用成果到底如何?

Deepfake深度伪造技术一键换脸“以假乱真”

“视频里的他看起来和我以前的同事一模一样。虽然画面里只能显示他的脸,但十分清晰。我们交谈时,他的表情自然,和平常人无异。通话只持续了25秒就被切断了,后来他又拨了语音电话回来,谈到了这笔钱的迫切性,我二话不说就转了钱。”印度南部喀拉拉邦科泽科德市的居民Radhakrishnan(以下简称Rad)回忆起了自己这段被网络诈骗的经历。

7月9日早上,Rad先是接到了一通匿名电话,他没有理会。几分钟后,Rad打开通讯应用WhatsApp时惊讶地发现他之前在印度煤炭公司工作的同事给他发来了多条消息。

“我们一起工作了近四十年,我很了解他,WhatsApp上的头像也是他本人。他在软件上问了我女儿的近况,他还给我分享了他的家庭近照,并问了我们共同的同事最近过得如何。”

接着,这名“前同事”在WhatsApp上给Rad打语音电话,电话中,他表示自己现在正在迪拜机场等飞往印度的航班,他的嫂子正在孟买的一家医院进行紧急手术,需要提前支付40000卢比的手术费用,想问问Rad可否先借他点钱周转一下。

尽管电话里的声音和他的前同事非常相似,但鉴于网络诈骗日益猖獗,Rad还是向对方表达了自己对大额资金转账的担忧,结果,这名男士立即表示可以与Rad视频通话来证明身份。

视频中熟悉的脸和自然的对话让Rad放松了警惕,随即把钱转给了他。但很快,Rad察觉到不对劲。

“没过多久,当同一个人回电并要求更多的钱来支付医院费用时,我找了个借口说自己银行卡上的余额不足,以此搪塞了过去。”Rad找到了通讯录,并找到了这名前同事的号码,结果打电话过去对方表示根本没有在WhatsApp上给Rad发过消息。

就在那时,这名七旬老人意识到自己被骗了,立刻报了警,警察随即追踪到一家私人银行并冻结了账户。Rad后来得知自己的其他老同事也有不少人,收到了类似的信息和电话。

而这一切,都和Deepfake脱不了干系。Deepfake,即深度伪造技术,是英文“deeplearning”(深度学习)和“fake”(伪造)的组合词,它借助神经网络技术进行大样本学习,“以假乱真”,实现一键换脸,进行声音合成或动作拼接,从而生成假图像和假视频。

2018年4月,一段视频在推特上疯传,获得200多万次的播放和5万多个点赞,视频里美国前总统奥巴马大骂“特朗普是个彻头彻尾的笨蛋”,引发热议。视频里的“奥巴马”动作自然,声音也听不出来任何破绽,然而这只是美国演员JordanPeele用Deepfake技术制作的合成视频,奥巴马本人可从未说过这样的话。

人工智能软件从视频提取声音拨打诈骗电话足以蛊惑至亲

诈骗一旦牵扯到至亲之人,想要冷静处理就变得尤为艰难。美国地方媒体“KIRO7”报道称,美国华盛顿州皮尔斯县的一个家庭在今年经历了“地狱二十分钟”。妈妈海蒂在五月一个周一的中午接到了一通电话,电话里传来了她女儿的呼救声。

女儿哭着告诉她,自己在沃尔玛超市附近发生了车祸,急需帮助,然后就把电话给了一个陌生男人。男人在电话里说:“我不是警察,你女儿现在在我手里,如果你想看到她安全出现在你眼前,就照我说的做。如果你挂了电话,我不能保证我会对你的女儿做些什么。”

海蒂的丈夫罗伯特猜测她女儿可能是在南山的沃尔玛,立刻开车前去。

“四周警示灯闪烁,喇叭狂响,我挥手示意迎面而来的车辆让路,以每小时60英里的速度前进,真是疯狂!但当你听见自己小孩的呼救时,甚至会面临生命危险,你还能做什么呢?”罗伯特说道。

但当他到停车场时,绕了几圈都没看见一个人。“我没有看到我女儿,也没有看到任何车辆,我的心一下子沉了下去。”罗伯特感情激动地说道。

与此同时,海蒂仍在家里与骗子通着电话。“开始他跟我要1000美元,我当时就准备去银行取钱,他要我带着钱去赎回我的女儿。”结果没一会儿,他就要求汇款而非面交,这让我起了疑心。

海蒂在与男子通话的同时也在用短信积极联系女儿,最后,女儿给她回了信息,说自己正在学校并且附上了照片,海蒂看完立刻挂了电话,并打电话给罗伯特,告诉他这只是一场骗局,骗子使用人工智能软件从在线视频中提取声音来拨打诈骗电话。

“肾上腺素狂飙,我几乎要在停车场吐出来。”罗伯特说道。

换脸的虚假色情视频遭传播影响无辜女性正常生活

再来看看deepfake——这个一开始就和色情视频制作息息相关的词语。2017年年底,一名叫做“Deepfake”的用户把名人的脸换到了色情视频主角身上,deepfake技术也就此流传开,成为千万女性的噩梦。

2018年,印度记者拉娜·阿尤布因报道了敏感话题,她的脸就出现在了色情短视频上。不怀好意之人利用deepfake技术,将她的脸与色情片女主角的脸互换,合成粗糙的短视频,播放量惊人,甚至她的家人都来问她:“这是你吗?”

“当我第一次打开视频,看到视频里出现自己的脸时,我十分震惊,但那不是我,因为我是卷发,而视频里的女性是直发,且她看起来也比我年轻许多,不会超过十七八岁。”阿尤布在英国《赫芬顿邮报》上写道,“我开始反胃呕吐,我也不知道该怎么办。”

随后,不停有人在推特等社交平台给她发骚扰信息,她的家庭地址等个人信息也被曝光在网上。终于,阿尤布不堪重负,因心悸和焦虑被送往医院。

“所有人都在看一个看似是我的色情视频,我什么也做不了。从视频发布的那一刻,我就再也不是原来的那个我了,我曾经固执己见,现在我在网上发布任何信息之前都会深思熟虑。”阿尤布回忆道。

另外一名受害者诺埃尔·马丁在今年四月接受相关媒体采访时说道:“假色情视频将影响终身,它会摧毁人们的生活、事业、人际关系和亲密关系,一旦有人被盯上,我们能做的事情少之又少。”

相关数据显示全球近半数企业一年内经历过AI诈骗

不仅个人遭遇AI诈骗苦不堪言,企业也难逃人工智能网络诈骗的泥沼。

信息安全公司Regula四月发布的数据显示,有37%的公司经历过语音欺诈,29%的公司经历过deepfake视频诈骗,人工智能技术越来越成熟,对企业和个人都带来巨大挑战,80%的企业都认为语音视频的深度伪造技术会带来严重危害。

然而骗子不会止步于此,更高级的诈骗手段不仅仅涉及人工智能生成的虚假信息,他们还会将真实信息和虚假信息混合在一起,从而创造出全新的合成身份。

相关数据显示,全球近一半的企业(46%)在过去一年都经历过合成身份诈骗,其中银行业最易受到影响。2022年,26%的小型公司和38%的大型公司经历了超过50次的身份欺诈事件,平均每家企业遭遇30起身份欺诈事件,这直接导致91%的企业都增加了身份验证的支出。

如今,ChatGPT已经可以满足骗子的多种要求,撰写出与人类写作无异的电子邮件,它能够从社交媒体帖子、YouTube视频脚本、新闻稿等多种渠道学习不同的写作风格。除此之外,ChatGPT也适用于多种语言,它不会像非英文母语者犯低级的语法错误,由它生成的钓鱼邮件语句通畅,质量更高,速度更快。

今年三月,软件制造商VMWare的安全技术专家ChadSkipper在接受《澳大利亚金融评论》采访时说道:“举个例子,骗子会让ChatGPT写一条带有美国得克萨斯南部口音的消息,内容可能是:‘大家好呀!今年是相当不错的一年,我准备给大家发放奖金,点击这里查看您的奖金是多少。’谁能忍住不点?ChatGPT降低了网络诈骗的门槛。”

英国率先宣布变更法律条款保护AI诈骗受害者

然而,这也不代表人们对于人工智能诈骗就束手无策。

2022年11月25日,英国政府宣布了一系列法律条款变更,那些未经本人允许大肆分享私密照片的人将受到惩罚。根据修改后的《在线安全法案》,分享所谓的“深度伪造”内容且未经本人同意首次明确被划为犯罪行为之列,并可能面临监禁。

英国政府还提出一系列额外的法律措施,以应对各种不良行为,包括安装设备(如隐藏摄像头)拍摄未经他人同意的视频图像等。

英国政府还将采纳法律委员会的多项建议,以确保立法与技术同步,从而有效应对新型犯罪行为。其中包括:

1.废除并用新条例替换现行法律条例来简化法律并便于受害者起诉。新条例包括未经同意分享亲密照片以及基于造成羞辱、惊恐的意图来谋求性满足的两个严重罪行。

2.为分享私密照和安装摄像头偷拍确定具体罪名。

3.将未经本人同意流传的deepfake照片或视频定为犯罪。

在接下来的三年内,英国政府还表示将会把受害者支持服务的资金增加到4.6亿英镑,并使用额外的专项资金,将负责性侵和家庭暴力的顾问数量增加300人,达到1000人。

如何防止AI诈骗?用“魔法”打败“魔法”

对于如何防止AI诈骗,律商联讯风险信息公司的政府业务首席执行官HaywoodTalcove给出了一些应对建议。他告诉《洛杉矶时报》,每个家庭都可以创造一个秘密词,这个词语只有家庭成员知道,一旦有人打电话声称是你的女儿、侄子,该词语就能帮你直接辨认来电人到底是真家人还是骗子。一些细节也能帮助你分辨对方是否在用deepfake合成的视频来进行诈骗,例如,视频里眨眼是否太多或太少,眉毛适不适合或者头发是否错位,皮肤是否和年龄匹配,如果对方戴眼镜,你还可以从眼镜上检查反射的环境是否真实。

但若碰上“高端局”,我们就只能用“魔法”来打败“魔法”,用人工智能治理人工智能。科技公司Sumsub在今年六月宣布将增强deepfake检测技术,该公司的内部像素分析和模式识别技术能立即发现伪造内容,99.95%的deepfake内容在第一次尝试时就会被拦截。此外,Sumsub还拥有一支专门负责人工智能和机器学习的专家团队,不断优化深度伪造检测技术,为预防AI诈骗贡献科技力量。

人工智能不是原罪已在多领域驱动变革

任何一项技术都有两面性,虽然其潜在危险和所带来的负面效应让世人头疼,但人工智能在很多领域的应用和给人们提供的便捷也是不能忽视的。如今全球各领域也随着人工智能的各种实践应用迎来了深刻变革,为我们展示了人类社会发展的多种可能性。

今年八月初,南洋理工大学李光前医学院举办了新加坡首届医学人工智能国际会议,新加坡卫生部(MOH)医疗服务主任麦肯尼斯教授参会并表示:“因为人工智能大多应用在幕后,多数人都未意识到它已经成为我们日常生活的一部分。人工智能在医疗服务上的应用早已不是某几个人的专利,而是普惠人类的重要技术。”

麦教授以糖尿病患者的眼部检查为例,阐述了AI对医学的巨大影响。糖尿病会对眼睛造成严重的伤害,如果不加以控制甚至会导致患者视力丧失。

传统意义上,眼部检查费时又费“人”,它需要医生对每张视网膜照片都进行细致的观看解读,但这一情况正在被人工智能驱动系统Selena+所改变。通过机器学习和深度学习算法,Selena+可以自动读取视网膜的照片信息,判断患者的眼睛状况且准确率高达95%以上。读取的结果可以迅速反馈给医生,大大节省了人力投入。

这项技术最初仅为试点项目,如今已在新加坡全面推广使用。麦教授还表示,目前,新加坡也正处于将胸部X光片、乳房X光片和脑部CT扫描片的异常增强检测AI技术从试点阶段向大规模应用转变的关键时期。人工智能极大改变了疾病检测方式,从而为病人提供早期干预,增大治愈可能性。

人工智能也为农业发展带来了新机会。非洲加纳农民Deborah是众多受到气候变化影响的农民之一,她不得不面对每年产量逐渐减少的现实,这使得她感到十分沮丧。今年七月,她在接受加拿大广播公司采访时说道:“干旱和气候变化让收成逐年减少,该下雨的时候雨水不够,不该下的时候雨水又过多。”酷热让农场的可可豆荚失去了正常生长和成熟所需的水分,从而使其无法成熟,降雨过多又让可可树易受到病虫害的侵袭。“这种情况日益恶化。如果产量继续下降,饥饿人数也会随之激增,人们的生活将会受到极大影响。”

幸运的是,位于非洲塞内加尔的研究团队开发出了一种名为非洲农业观察(简称AAgWa)的AI工具来帮助解决该问题——通过使用卫星数据和图像,AAgWa可远程接收地面的生物物理参数,梳理历史生产图,然后利用机器学习预测可能的生长条件。

非洲全新农业科技平台2063研究院的数据管理主任RacineLy表示AAgWa可以给像Deborah这样的农民提供有关土壤温度、肥力和预期降雨量等信息,并告诉他们这些情形将会对农作物产生怎样的影响。“基本上你就可以根据它提供的信息来判断,在什么地区种植什么农作物。”目前,AAgWa已覆盖47个非洲地区,重点监测玉米、木薯和高粱等主要农作物的生长状况,根据RacineLy的说法,它的准确率高达94%。“有时候,AAgWa的预测会在一些地区出现偏差。那时,我们会及时更新模型和预测结果。”

AI技术不是原罪,犯错的是利用技术手段进行非法操作的人。梅塞尼说:“技术本身是手段和工具,使技术成为善与恶的,是创造和使用技术的人。”我们无法停下科技创新前进的脚步,唯有用好科技这把双刃剑,才能让人工智能真正转化为社会发展动能。

(北京青年报)

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。