联系电话:0913-8211008
检察服务中心电话:0913-12309
当前位置: 首页 > 检察动态

【富检普法】“真像”不一定是“真相”,谨防“AI换脸”骗局!

发布时间: 2024-01-04
富检普法——学法 懂法 守法—— 
    你以为“眼见为实”“耳听为真”,但在AI的世界里,“真像”不一定是“真相”,你以为的是你以为......个别不法分子利用AI技术,玩出了“新花样”,一键换脸、声音合成等等,让人防不胜防。“不怕罪犯有文化,就怕罪犯懂技术”。今天富检君带领大家一起了解“AI”诈骗! 
    一、“AI”诈骗是什么? 
    新型“AI诈骗”是指犯罪分子利用人工智能(AI)技术,模仿、伪造他人的声音、面容、视频等信息,制作虚假图像、音频、视频,仿冒他人身份进行欺骗、敲诈、勒索等犯罪活动。现实案例中多为通过AI技术伪装受骗者亲人、领导同事或公职人员的肖像面容与声音,并冒充这些人员身份行骗。由于肖像面容表情自然,声音逼真,受害者往往不会产生怀疑,感觉不出异样,从而受骗。 
    二、“AI诈骗”的常见手段 
    AI拟声 AI拟声是指利用计算机技术将文本或其他形式的信息转换为语音输出。犯罪分子通常通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗取目标人群。例如,公司财务人员王慧(化名)接到老总电话,要求转出5万元货款到指定“供应商”账户,由于老总的口音经合成后十分逼真,与平日无差,王慧未感觉出异常,遂按指示转款,后发现被骗。 
    AI换脸 AI换脸是指利用计算机技术将一张人脸图像替换到另一张人脸图像上,并保持原图像中其他部分不变。犯罪分子通常会通过网络搜集获取人脸生物信息,通过AI技术筛选人群,在视频通话中利用AI技术换脸,骗取目标人群财物。例如,张晓(化名)平时关系较好的高中同学通过聊天软件跟他借钱,对方打过来几秒钟的视频通话,视频中同学很是着急,说家里出了事,急需2万元钱,张晓看到了确实是同学本人,又有急用,就立刻将2万元转给对方,后得知同学账号被盗,通话视频中并非同学本人,发现被骗。 
    AI筛选锁定目标人群 为了提高诈骗效率,犯罪分子通常会事先筛选目标,利用AI技术分析公众在网上发布的各类信息,根据所要实施的骗术,对人群进行筛选,在短时间内即可定制出诈骗脚本,锁定目标进行诈骗。例如,当进行金融诈骗时,可以筛选出经常搜集投资理财信息的人群;当实施情感诈骗时,可以筛选出经常发布感情类信息的人群。 
    检察官提醒 
    诈骗分子用了新的技术诈骗手段——AI换脸。AI换脸让亲眼所见都不一定为实,视频通话都可以通过AI换脸技术让人信以为真。但是无论诈骗手段如何变换,只要我们提高警惕,总能让诈骗分子无处遁形。 
    检察官提醒:
    1、接到“亲友”视频通话涉及个人隐私、资金等内容时,不要盲目轻信,注意观察对方的眼睛,假脸的眼睛极少甚至不会眨眼睛;注意观察对方的嘴唇,语音和嘴唇动作是否相符;注意观察视频画面是否有模糊、卡顿、变色的现象。 
    2、要通过线上线下进一步确认。在视频通话过程中,尽量询问具体信息,视频通话结束后,再打电话进一步确认是否为本人。 
    3、建议每一个家庭设置危险暗号,只有家庭内部成员知晓,用于家人发生意外情况下报警或者确认对方情况。(李 靖)
扫一扫在手机打开当前页