AI换脸新型诈骗来袭 双“法”齐下破解AI诈骗难题
双“法”齐下破解AI诈骗难题
这几天,AI换脸诈骗的话题引发社会关注。
包头警方近日发布一起利用AI实施电信诈骗的典型案例。有骗子通过AI换脸和拟声技术佯装好友,对福州市某科技公司法人代表郭先生实施诈骗,在视频聊天“核实”对方身份后,郭先生10分钟内被骗子骗走430万元。
那么,如何判断AI诈骗,有哪些方法和手段可以防范AI诈骗?5月底,科技日报记者采访了相关专家。
AI换脸诈骗让人难以分辨
AI诈骗就是利用AI技术,模仿、伪造他人的声音、面孔、视频等信息,进行欺骗、敲诈、勒索等的犯罪活动。北京邮电大学信息与通信工程学院副教授路兆铭告诉科技日报记者,骗子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,再利用AI技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。
“而人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人。”路兆铭表示,骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友,通过合成视频或照片的方式来“以假乱真”,扰乱诈骗对象的视线,进而实施诈骗。
安天移动安全副总经理彭智俊在接受科技日报记者采访时表示,由于AI诈骗具有高度逼真、难以追踪、针对性强、手段多样的特点,受害者往往难以分辨真假,从而降低警惕。同时,犯罪分子隐匿在网络的阴暗角落,这也给警方侦破带来困难。
问题治理关键在“法”
面对AI技术滥用风险,如何整治AI诈骗,防止AI作恶?
关键在一个“法”字。这个“法”既包括科学技术方法的应用,也包括刚性治理的法律法规。
在科学技术方面,打击电信网络诈骗的科技装备发展迅速。例如,由厦门市美亚柏科信息股份有限公司研发的“AI-3300慧眼视频图像鉴真工作站”,不仅能鉴定利用传统伪造手段篡改的影像,而且对利用深度伪造技术进行了换脸、美颜、生成人脸、同图或异图复制篡改的影像也能够进行鉴定,可以为公安、司法行业提供技术支持。
而在法律法规方面,2022年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都进行了明确约束。该项规定发布实施后,此前一款主打AI换脸的App在被监管部门约谈后进行下架处理,处理原因为“如此换脸侵犯了公民的肖像权”。
需注意不自然的细节
“对于普通百姓而言,AI诈骗也不是完全‘防不胜防’,这需要大家有甄别的‘慧眼’。”彭智俊告诉科技日报记者,虽然AI生成的语音和表情已经相当逼真,但仍然可能存在一些不自然的细节。具体细节包括AI生成语音的节奏、音高变化和AI生成图像的面部表情过渡等,这些细节均与原始视频有较大的差别。
进行判断与甄别的技巧有很多。彭智俊表示,在视频通话的过程中,用户可以让对方展现全身特征,再观察人脸是否出现消失或特殊变化,以检测是否存在面部置换的可能性。用户还可以让对方用一张白纸在脸前缓慢晃动,观察是否出现闪烁现象,以此判断是否可能存在换脸现象。
“无论多厉害的骗局,归根结底都是用欺诈的手段获取对方信任,以谋取公私财物。对于个人来说,多方验证、确认身份,才能避免和防范骗局的发生。”路兆铭表示,尤其是在涉及金钱、财产和隐私等重要事项时,更要小心谨慎,可要求对方提供更多证据、进行更多交流,并核实其身份和回答的准确性,以排除AI技术欺骗的可能。
公众在平时要有警惕高风险行为的意识。对于紧急转账、提供大额保证金或其他不寻常要求,要保持警惕,并仔细核实真实性。路兆铭提醒,不要被高额回报或紧迫情况迷惑。在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,同时,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。