您的位置 首页 通讯

多位知名人士遭遇“AI换脸”,这些套路要警惕

“AI换脸”假冒名人事件频发前不久有网友发现,疑似知名医生张文宏化身“带货主播”,在网络平台售卖产品。经核实,这个“张文宏”实际上是通过AI技术合成的,视频中的他不断介绍产品,声音和形象都与本人极为相似,导致许多消费者信以为真。

“AI换脸”假冒名人事件频发

前不久有网友发现,疑似知名医生张文宏化身“带货主播”,在网络平台售卖产品。经核实,这个“张文宏”实际上是通过AI技术合成的,视频中的他不断介绍产品,声音和形象都与本人极为相似,导致许多消费者信以为真。

多位知名人士遭遇“AI换脸”,这些套路要警惕

对此,张文宏回应称,这样假冒自己卖货的账号不止一个,而且一直在变,他已多次向平台投诉,但违规账号屡禁不止。

其实,张文宏的遭遇并非个例。近年来,通过AI深度伪造技术假冒名人的事件频繁发生。

2024年国庆期间,网络上出现了一些利用AI技术伪造雷军声音和形象的恶搞视频,视频中的“雷军”使用不雅语言对堵车等多个话题进行“锐评”,给雷军本人带来了不小的困扰。

2024年11月,江西一位65岁的女士为了资助其所谓的男朋友“靳东”拍摄电影,前往银行欲办理200万元的贷款。经调查发现,该女士在短视频平台上认识的“靳东”是骗子冒充的,骗子所发布的视频也是由AI合成的。

“眼见非实”的AI技术存在破绽

所谓“AI换脸”,实际上是通过精准识别人脸图像,提取关键面部特征,并利用深度合成技术将这些特征与目标人脸图像进行匹配、替换、融合。在此基础上,通过背景环境渲染和合成声音的添加,生成看起来非常真实的虚假视频。这一技术也彻底颠覆了人们对于“眼见为实”的传统认知。

技术本身并无善恶,只是一些不法分子为了谋取私利,滥用此技术,将一些名人的脸替换到特定的视频中,制造出虚假的内容,实行诈骗。

多位知名人士遭遇“AI换脸”,这些套路要警惕

展开全文

尽管换脸AI模仿能力强,但是并非没有破绽。通过AI合成的视频,往往存在许多AI痕迹。比如,人物的面部表情、眼神和动作可能不协调,尤其是在表情的细微变化和眼神的自然流转上;也会出现视频画面不连贯、背景与人物融合不自然等情况;同时,还会出现语音、语速和口型不匹配的问题。

此外,“AI换脸”也存在一定的局限性,如果进行面部和声音同时替换的操作,只能制作成视频,无法做到实时直播。

如何防范“AI换脸”带来的风险

当前,“AI换脸”技术带来的负面效应越来越多,亟需采取多方面措施来应对这些风险。

首先,平台应强化技术手段。严格审核账号上传发布的内容,对视频画面进行实时监测和分析,如果发现存在虚假宣传、误导消费者等行为,应及时采取措施进行干预。

其次,用户需要提高警惕性和辨别能力。在观看视频时要保持谨慎,不要轻易相信视频中的内容。特别是对于涉及到金钱交易、个人信息等重要事项,要通过多种渠道进行核实,避免上当受骗。

此外,立法、执法、司法力度仍需加强。目前,我国已经出台了《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,然而随着技术的不断发展和应用场景的日益复杂,法律体系仍需进一步深化、细化,以确保立法能够紧跟技术发展的步伐,通过法治手段引导技术向善;在执法、司法环节,严厉打击利用“AI换脸”等技术进行非法活动的行为,减少AI违法犯罪对社会带来的负面影响。

来源:保密观微信

本文来自网络,不代表天马新闻网立场,转载请注明出处:http://jhxsdq.com/13836.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部