AI技术的迅速发展,在给人们提供便利的同时,也给诈骗分子留下可乘之机,为“AI诈骗”犯罪提供了土壤。一些不法分子利用AI深度伪造等新工具,实施电信诈骗、散布虚假信息,其陌生的”新面孔“,让很多人因不了解而对其放下戒备之心,更让人“防不胜防”。因此,维信金科要说的是,只有了解AI诈骗的实施过程和常用手法,才能更有针对性对其进行防范和处置。
作为一种利用智能AI技术实施诈骗的新型诈骗手段,AI诈骗正随着技术的发展变得越来越普遍而复杂。骗子们所瞄准的,往往也不只是大型企业。一段时间以来,国家金融安全总局等相关部门曾多次发布关于警惕利用AI新型技术实施诈骗的风险提示,提醒广大消费者提高警惕,维护个人及家庭财产安全。
换脸、拟声、定制剧本,AI诈骗花样百出
近期,AI诈骗案件在国内频频发生。2023年4月,内蒙古包头市曾发生一起涉案金额高达430万的AI诈骗案。当事人郭先生收到好友的求助,在经过视频电话确认身份后将钱转出。所幸因其及时报警,有300余万的资金被冻结。
去年年底,泸州市公安局江阳区分局北城派出所民警接到陈女士的报案,称自己的女儿被绑架,绑匪索要赎金80万元。经民警调查,陈女士遭遇的是“AI拟声”诈骗。更多案件甚至一度冲上热搜,引发全国上下广泛关注。
综合来看,此类案件最常见的手段之一就是“换脸”。通常来说,人脸效果更容易获取信任。骗子通过截取或收集某人的面部视频画面,利用AI技术换脸,制造视频聊天的假象,骗取受害者的信任和钱财。
与之相对应的诈骗手段“拟声”,主要是骗子通过骚扰电话录音等来提取某人声音,后进行声音合成及伪造。除此之外,诈骗分子还会AI 技术分析公众发布在网上的信息,根据所要实施的骗术对人群进行筛选,在短时间内生产定制化诈骗脚本,从而实施准确诈骗。
记住这几点,AI诈骗可预防、可识别
针对“AI换脸”“拟声”两大诈骗手段,民警提示,两种诈骗方式都受限于样本数量,大家可以通过延长通话时间、多次进行提问的方式让对方多说话,露出破绽。
此外,还可采用“脸部遮挡”这一方式进行分辨。目前,“AI换脸”技术主要采取脸部正面图像进行技术解析,视频通话过程中,用手部短暂遮挡面部位或有物体在面前晃动,脸部会出现明显的变形。可要求对方用手在面前晃动,以此进行辨别。
面对更加多样的AI诈骗手段,消费者需牢记以下两点:一是转账汇款务必核验对方身份。面对自称“熟人”、“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。还可将转账到账时间设定为“24小时到账”,以预留处理时间。二是保护好照片、声音等个人信息。消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。
最后,维信金科再次提醒大家,虽然“AI诈骗”相比于传统诈骗更加具有迷惑性,但只要牢记,不轻信、不惦记、不透露、多核实,“AI诈骗”自然就不难防。