遭遇AI诈骗怎么破?四招搞定:挥手、看眼、戳鼻、问问题

2024-11-28 20:41:12 admin

近期,遭遇诈骗香港警方披露了一起多人 “AI换脸”诈骗案,破招涉案金额高达2亿港元。搞定随着近年AI技术的挥手迅猛发展,AI诈骗风险随之增高,看眼电信诈骗分子或通过“AI换脸”、戳鼻模拟变声等,问问假冒熟人进行诈骗。遭遇诈骗对此,破招有专家表示,搞定其实AI人工“换脸”无论做得多逼真,挥手想要识别真假还是看眼有一些方法的,比如在视频通话中,戳鼻如果对方是问问真人的鼻子,按下去是遭遇诈骗会变形的,但AI生成的人鼻子并不会 ,相关话题登上热搜。上游新闻根据公开报道对这些方法进行了梳理。

多人会议仅一人为“真人”

上游新闻梳理公开报道发现,近年来国内已发生多起通过“AI换脸”实施诈骗犯罪的案例,其中香港警方披露的一起近期发生的案件致受害人损失2亿港元。

相关案件示意图。新闻截图

在上述案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。之后,其向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

近期在陕西西安也发生了一起“AI换脸”诈骗案例。陕西西安财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。

被害人张女士称,“老板”让把这个款赶紧转过去,这笔款要得非常着急,因为“老板”声音还有视频图像都跟他本人是一样的,所以就更确信这笔款是他说要的了。转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由,“然后我们就打电话再跟老板去核实,老板说他没有给我发过视频,然后也没有说过这笔‘转账’。”

意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心、联系相关银行进行紧急止付,最终保住了大部分被骗资金——156万元。

陕西张女士遭遇“AI换脸”诈骗。新闻截图

去年5月初,内蒙古包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件。福建省福州市某科技公司法人代表郭先生的“好友”突然通过微信视频联系他,声称自己的朋友在外地投标,需要430万元保证金,想借用郭先生公司的账户走账。基于视频聊天信任的前提,郭先生并未核实钱是否到账,就陆续转给对方共计430万元,之后郭先生才发现被骗 。

据媒体此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。

在更早的2020年,上海某公司高管因对方使用“AI换脸”与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。

技术开源致“换脸”门槛降低

那“AI换脸”是怎么做到的呢?据闪电新闻报道,该技术是通过提前设置好程序,检测人脸五官、轮廓的关键点及位置,只需要几秒就可以换上一张新的“人皮” 。山东犀盐数据科技有限公司总经理彭建辉介绍:“像这样换脸技术,还有换声技术,它都已经是开源的项目,大家都可以学习并且去实施。所以说‘AI换脸’这项技术,其实很多普通的工程师就可以完成。”

中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。

AI生成的视频以假乱真。网络图

首先通过视频的采集,追踪定位图片里人的面部;第二步,做一个面部特征点的采集和提取,主要包括嘴、鼻子跟眼睛的特征;第三步就是把这张原始的照片,做一个变换跟融合。

其背后最核心的包括为三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假“换脸”视频。

“动手动脚”识别“AI换脸”

而作为没有相关计算机、AI技术背景的普通人,该如何识别视频或实时通话中的对方是否“换脸”呢?

据闪电新闻报道,一些“动手脚”的网络社交是很有必要的,“‘AI换脸’就是一种算法,当然存在漏洞,所以在运用‘AI换脸’这项技术的时候会有些变形,像是脸庞或者眼睛,如果反复快速移动的话,会产生扭曲变形。那么我们在平常的生活中,跟朋友开视频时,如果不确定对方的身份,可以让朋友遮一下自己的脸,移动下眼睛,看是否会发生变化。此外,在视频通话时还可以观察背景和光影与面部是否匹配。”山东犀盐数据科技有限公司总经理彭建辉接受采访时介绍。

另外,虽然深度合成技术很强大,但生成的人脸在细节上存在很多不足。有研究人员提出利用真假脸的不一致性来区分,如新的人脸的生成,图像的数据点插值是随机的,会导致全局眼睛的左右颜色、鼻子的左右色彩等不一致;其次,篡改区域和正常区域对光照的反射不一样,如眼睛区域,深度合成生成的视频大多会丢失眼睛反射细节。

专家介绍识别“AI换脸”方法。新闻截图

中国计算机学会安全专业委员会数字经济与安全工作组成员方宇建议,可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去进行识别。因为实时伪造的视频,需要实时的生成和处理,在挥手的过程中,会造成面部数据的干扰。“挥手过程中,他所伪造的这个人脸,会产生一定的抖动或者是一些闪现,或者是一些异常的情况。”

中国科技大学网络空间安全学院执行院长俞能海提醒,视频通话中,还可以让对方摁鼻子、摁脸观察其面部变化。他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。同样脸部也一样,真人脸部按下去是会变形的。

此外,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。

用“魔法”打败“魔法”

应对AI造假,用“魔法”打败“魔法”可行吗?

对此,上海合合信息科技股份有限公司图像算法研发总监郭丰俊表示:“国内做AI篡改鉴别的企业已有不少,既有如中国电信这样的央企,又有如瑞莱智慧、中科睿鉴这类大学/科学院孵化的科技公司,还有网易、合合信息这样深耕AI行业多年的企业。”他还进一步指出,国内科研团队在“深度伪造”鉴别方面已处于世界先进水平。不同的国内研究团队多次在国际知名篡改检测大赛中获得冠亚军的好名次。

此外,在法律监管方面,2022年,我国颁布的《互联网信息服务深度合成管理规定》就划定了深度合成技术的使用规范,包括不得利用深度合成服务侵犯他人合法权益等法律规定。去年, 《生成式人工智能服务管理暂行办法》已正式施行,要求生成式人工智能服务提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。

南京邮电大学高质量发展评价研究院院长助理、副教授金巍表示,数字经济时代,加强对公民个人信息的保护,已成为与你我息息相关的新的法治需求之一。“一方面,企业和平台不能隐藏在‘避风港’中,要积极承担社会责任。在搜集与利用个人信息时应自觉遵守法律规范,并自觉肩负起保护隐私安全的重任。另一方面,相关管理部门还应加快信息治理体系与信息治理能力建设,并发挥主导作用,实现市场的健康发展。”

  • 文章

    47814

  • 浏览

    93436

  • 获赞

    92

赞一个、收藏了!

分享给朋友看看这篇文章

热门推荐