首页 > AI资讯 > 行业应用 > AI技术再刷屏!明星集体“说”外语,有何风险?如何识别“AI换脸”破绽?

AI技术再刷屏!明星集体“说”外语,有何风险?如何识别“AI换脸”破绽?

新火种    2023-11-07

近日,一段美国歌手泰勒·斯威夫特“说”中文的短视频在网络刷屏,引发热议。视频中,泰勒·斯威夫特“说”着流利中文,音色和讲母语时的音色类似,甚至连口型都能对上。

视频截图,源自网友@好试发声

类似的视频还有很多外国人“说”地道中文、很多中国艺人“说”起流利的英文……不少网友感叹,“嘴型、手势都对得上,太自然了,差点儿以为是真的。”“除了嘴形,还有身体动作和语速的配合。”

其实,这些视频有一个共同点:都是由AI(人工智能)生成的。

AI“翻译”以假乱真

小编试用了一款AI人像视频工具,只需上传视频,选择语言,就能生成自动翻译、音色调整、嘴型匹配的新视频。

一款AI人像视频工具HeyGen的视频翻译功能。图源:截自HeyGen

对比原片,AI“翻译”后重新配音的新视频不仅进行了较准确翻译,而且连声线和情绪都近乎拟真,嘴型很贴合,难辨真假。

对此,有网友表示,这种技术看起来很炫酷,应用场景很广泛,未来可能会越来越成熟,比如翻译配音会更自然、传神。

但也有网友表示担忧,“这会不会被用来模仿声音进行诈骗?”“再加上换脸,以后网上啥都不能信了。”“以后视频造假会越来越容易。”

还有网友表示,“希望AI技术发展能被控制在正轨,技术滥用,就是灾难。”

AI技术是把“双刃剑”

近年来,AI技术被广泛应用于短视频的二次创作,比如AI换脸及换声等。可以说,AI技术是把“双刃剑”。

一方面,AI换脸及换声技术对于工作效率的提高具有非常强的作用。清华大学新闻与传播学院教授司若举例说,AI换脸及换声技术让已故的演员、历史人物可以通过换脸技术重现在屏幕上,在不同国家的语言转译上也可以通过AI的换声技术进行实时转译。

另一方面,近年来,有不法分子为了牟利,利用AI技术进行诈骗。比如利用AI换脸冒充熟人诈骗,甚至将“魔爪”伸向儿童,或者制作发布假新闻混淆视听、赚取流量等。

一位博主讲述人贩子利用AI“换脸”把孩子拐走的案例,与孩子视频的所谓“妈妈”是AI合成的。来源:贾姨儿童安全

此外,AI换脸、AI换声还存在法律风险。近期,不少相声演员“说”英文相声、小品演员“演”英文小品的视频在网络上传播。对此,北京岳成律师事务所高级合伙人岳屾山律师表示,用AI技术为他人更换声音、做“翻译”并发布视频,可能涉嫌侵权,主要有三个方面:

一是著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。

二是肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。网友用他人形象制作视频,并在网站发布,需要取得肖像权人的同意,否则涉嫌侵权。

三是声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。

岳屾山律师强调,技术滥用,可能会侵犯他人权益,“AI技术本身不是问题,关键是我们要怎么用它。”

如何对AI技术加强监管?

AI技术发展,需要多层面约束规范——

在源头端,需要进一步加强公民个人信息保护。专家建议,加强公民信息尤其是生物特征等隐私信息的技术、司法保护力度。

在技术层面,数字水印鉴伪等技术有待进一步普及利用。比如AI生成的视频需带有不可消除的“AI生成”水印字样。

在法律制度层面,进一步完善人工智能等领域相关法律法规。今年8月15日,《生成式人工智能服务管理暂行办法》正式施行。《办法》规定,提供和使用生成式人工智能服务,应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。

中国科学技术大学公共事务学院、网络空间安全学院教授左晓栋表示,总体而言,生成式人工智能仍处于发展的初期阶段,风险没有完全暴露,应用前景难以估量,所以应当采取包容审慎的态度,坚持发展和安全并重、促进创新和依法治理相结合,要采取有效措施鼓励生成式人工智能创新发展。

据了解,目前我国人工智能产业蓬勃发展,核心产业规模达到5000亿元,企业数量超过4300家。随着各项措施规范出台,我们期待未来人工智能发展更加健康规范,从多方面助力人们的工作和生活。

通过让对方做动作

可发现部分“AI换脸”破绽

不断迭代的AI技术,已经把换脸视频做到“真假难辨”,我们应该如何防范此类新型诈骗呢?

首先,目前视频换脸的技术上也不是无懈可击的,视频沟通时的一些动作,就可以发现破绽。

深圳安络科技副总裁肖坚炜:在这个操作中,如果我用另外第三个图像去干扰它,比如让他用手捂脸、动一动,就会干扰到图像的合成。从这里演示看,我把手放上去之后,会明显地看到屏幕上我们同事的眼睛在抖动了,鼻子在抖动了,我的手已经消失了,嘴巴也消失了。

除了让对方在脸部做出一些动作来判断,专家介绍,AI合成软件的升级可能是飞速的,如果动作捕捉已经被避开,那么我们就需要通过一些更专业的软件来分辨了。

深圳安络科技副总裁肖坚炜:我们可以通过软件来识别,比如人的整个轮廓,替换的眼睛、鼻子、嘴巴这里,它的像素大小是不一样的,颜色的色域是有差别的。像我们的衣服一样,要打一个补丁,是没办法做到完美的。这些我们眼睛肉眼看不出来,但是软件算法是可以检测出来的。

目前,这类鉴别软件对设备和周边的要求也比较高,使用起来并不普及。不过,让视频传播的网站或者社交软件,使用专业的鉴别软件来鉴定,再打上“AI制作”的标签,在现阶段不失为一个方法。

预防“AI换脸诈骗”,大家还要加强对人脸、声纹、步态、指纹等生物特征数据的安全防护。

中国科技大学公共事务学院、网络空间安全学院教授左晓栋:在使用互联网服务或者在社会生活中,要求输入人脸等生物特征数据的时候,我们要看一看,对方收集我们的生物特征数据是不是符合数据安全法,个人信息保护法的要求,是不是合法、正当和必要。

此外,国家也在通过多重手段防范“AI换脸诈骗”,近两年,相关部门先后出台了互联网信息服务深度合成管理规定,生成式人工智能服务管理暂行办法等有关政策文件。先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等有关工作。严厉打击利用AI换脸、变声等手段实施的违法犯罪行为。

中国科技大学公共事务学院、网络空间安全学院教授左晓栋:目前看来初步遏制了滥用人工智能技术。特别是从事违法犯罪的这些势头,整体治理效果开始显现,而且也有力促进了人工智能技术的规范发展。

来源:央视新闻

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。