只要一段通话
就能克隆你的嗓音
仅需一张照片
就能演遍亲朋好友
高科技配上精心打造的剧本
你能躲过这些骗局吗?
声音以假乱真,耳听可能为虚
“喂,你是谁?”
电话那头,他是你的家人、朋友、同事、领导……只要能获取你的信任,他的声音可以变成任何你熟悉的嗓音。但是他运气很差又碰上急事,要么出车祸,要么银行卡被冻结,最终都是要你立即转账。
没想到,声音对得上、号码也对得上,对方竟然是骗子?他们通过模拟电话、克隆声音、屏蔽号码操作一条龙,骗子的剧本你信以为真,你就掉进他们的坑。警方提醒:无论多亲近的关系,打电话提到转账都要想办法核实身份,比如提一些只有双方才知道的问题。
换脸防不胜防,眼见也不为实
如果他直接视频通话,你又该如何应对呢?
“领导”突然要求转账,都面对面视频通话了,还能有假?当然能有假!AI换脸乐趣多,风险也不小。你用一张照片就能演遍影视剧,骗子也能用熟人的脸跟你视频通话。
当骗子用上AI换脸,前期各种铺垫,总会图穷匕见,目的只有一个,就是快点转钱。检察官提醒:当视频聊天涉及转账交易等话题时,要格外留意,询问对方一些关键信息,保护好个人隐私。
骗子与时俱进,诈骗素材源于信息泄露
他是如何盯上你的呢?
你以为只是一次扫码,却在不经意间透漏了个人信息;你以为只是一通骚扰电话,谁料竟被录音,成了AI换声诈骗的素材。
时代在进步,骗子也在与时俱进,利用非法获取的个人信息精准定位到你,或许是之前的某次扫码,或许是无意点开的链接,然后运用高科技一键变声换脸进行诈骗。检察官提醒:保护个人信息,防范AI诈骗。涉及转账交易等行为时,请务必多重验证,确认对方身份。
不明电话及时挂
视频通话也有假
未知链接不点击
不听不信不转账
个人信息保护好
AI诈骗可预防
#我要上头条##我要上 头条##ai##AI诈骗爆发了#
来源:CCTV今日说法