有人被骗430万元!AI换脸诈骗来袭!和你视频的可能是骗子!

茶山快讯
+订阅

通过AI换脸和拟声技术

10分钟骗430万元

AI虚拟人在聊天中筛选出受害者

人工接力实施诈骗

……

近期,多起宣称利用AI技术

实施诈骗的案件引发关注

“真的这么厉害?”

“我发在朋友圈的照片会被利用吗?”

“我该如何防范?”

......

想知道这些问题的答案

就往下戳!

↓↓↓

01

典型案例

据“平安包头”微信公众号消息,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

2023年4月20日中午,福州的郭先生手机响了。郭先生拿起来一看,原来是自己的好朋友想跟他视频连线。这位好友正在外地参加竞标,需要430万元保证金,而且需要公对公转账过户,所以连线郭先生,想通过他的公司走账。

因为刚通了视频电话,郭先生也没多想,就按照好友的要求,分了两笔,把430万转给了对方。可是让他万万没想到的是,随后他再微信好友,询问竞标情况的时候,对方一脸懵,这时候郭先生才知道自己被骗了!幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元。

原来,骗子通过AI换脸+模拟声音,又黑了郭先生好友的微信,本人微信+本人的脸+本人的声音,最终郭先生毫无防备地就被骗了。

除此之外

媒体也曝光了多起类似案件

如江苏常州的小刘

被骗子冒充其同学发语音、打视频电话

小刘看到“真人”后信以为真

“借”了6000元给骗子

朱慧卿 图/《瞭望》

02

AI诈骗常用手法

AI技术如何介入新骗局?

还有什么新的诈骗方式?

我们又该如何去识别AI诈骗?

下面我们就速来

get一下AI诈骗常用手法

1.声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

2.AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

3.转发微信语音

骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

4.AI程序筛选受害人

骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

03

警方支招

1.多重验证,确认身份

涉及钱款时,可以通过电话加视频等多种方式去确认对方是否为本人,在汇款前一定要确认对方提供的账户在本人名下,如果要求把钱转到陌生账户,就要小心,而且要避免通过微信等社交软件转账。

2.保护信息。

不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;此外还要拒绝诱惑,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息。警惕陌生人的“无事献殷勤”。

3.不下载未知软件

陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号;

4.相互提示,共同预防

做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

同时

针对在视频通话中应用“AI换脸技术”

茶山警方也给出了破解方法!

快来学一学!

辨别AI假人

1.“假人”的牙齿、眼睛细节有漏洞。牙齿边缘过于整齐,瞳孔颜色不一样、反射光源不一致。

2.“假人”眨眼频率不正常。正常人一般2至10秒眨一次眼,每次眨眼用时0.1至0.4秒。

3.“假人”视频通话不顺畅。伪造的视频可能有视频抖动现象会突然出现跳动、闪烁的画面,同时动作相比正常人会显得模糊、迟滞。

4.当你怀疑视频通话对象可能是AI换脸技术时,可以要求他将手掌在面部来回晃动,如果真是AI换脸技术,那他的面部便会发生扭曲!

茶山警方着重提醒大家

眼见不一定为实

有图不一定有真相

大家一定要注意甄别互联网上的消息

以防被骗!

快快把这条推文转发出去吧!

出品 | 茶山镇融媒体中心

来源 | 新华视点、中国网、东莞市公安局、“深圳市反电信网络诈骗中心”微信公众号

编辑 | 曹晓昕

责编 | 罗舒、苏路程

免责声明:本文由南方+客户端“南方号”入驻单位发布,不代表“南方+”的观点和立场。
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开