当前时间:

当前位置: 首页 > 网信动态 > 预警通报 >

相似度可达80%,警惕视频通话“AI换脸”新型诈骗

发布时间:2023-11-28


最近,视频网站上通过人工智能换脸,国产影视剧里的主角用英语说起了台词,通过小程序用户也可以将自己变成电影里的人物,给不少用户带来了欢乐。

类似的视频还有很多外国人“说”地道中文、很多中国艺人“说”起流利的英文……

不少网友感叹,“嘴型、手势都对得上,太自然了,差点儿以为是真的。”“不止嘴形,还有身体动作和语速的配合。”

其实,这些视频有一个共同点:都是由AI(人工智能)生成的。

图源:新华社

有网友表示,这种技术看起来很炫酷,应用场景很广泛,未来可能会越来越成熟,比如翻译配音会很自然、传神。

但也有网友表示担忧,“这会不会被用来模仿声音进行诈骗?”“再加上换脸,以后网上啥都不能信了。”“以后视频造假会越来越容易。”

还有网友表示,“希望AI技术发展能被控制在正轨,技术滥用,就是灾难。”

就在前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示。

青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去之后,发现竟然被诈骗了。

广东深圳某科技公司产品部经理 梁雅婷:通过取证发现,跟他聊天的并不是他的女朋友,对方是通过虚拟的摄像头,用AI换脸的功能跟他聊天。 

AI如何做到在视频通话时换脸呢?记者在一家为公安机关提供技术支持的科技公司看到的演示,相似度可以达到80%

记者在现场看到,一个高配置的电脑,合成一段10秒的换脸视频只需要一两分钟。而技术的发展,上述案件中视频聊天的实时变脸也不是难事了。

广东深圳某科技公司产品部经理 刘远洋:照片上传后,大概有30秒的时间对照片进行特征识别,然后建模,建模后就可以进行实时转换。不管是你的头像,还是你在朋友圈的一张小照片,都可以直接上传。

AI生成的技术还在不断更新迭代,比如性别的互换、声音的变换,都可以同步进行。由于算法是开源的,也就是说一个普通的工程师就可以制作出一个变脸软件,这就在控制源头上带来了极大的困难。

通过让对方做动作 可发现部分“AI换脸”破绽

不断迭代的AI技术,已经把换脸视频做到“真假难辨”,我们应该如何防范此类新型诈骗呢?戳视频了解↓↓↓


(来源:央视财经、中央广电总台中国之声)



中共河南省委网络安全和信息化委员会办公室 河南省互联网信息办公室  版权所有     联系我们
      邮编:450008   豫ICP备17047339号  技术支持:大河数字
  • 二维码手机站
  • 二维码微信公众号