被“表哥”骗走30万元!当诈骗用上“AI换脸”技术…【法说平安】

深圳政法
+订阅

你听说过“AI换脸”技术吗?

只要上传自己的照片

就可以将自己变成电影里的人物

可如今却有人将这项技术

用到了诈骗上

2024年第2期《法说平安》

带你走进“AI新型技术诈骗”

本期提要

1

真假“表哥”

2023年5月,家住山东的冯某正在用手机APP观看短视频,突然他在 APP 里收到了一条私信加好友的请求。点开后,发现是自己亲戚白某,于是冯某通过了请求,随后,对方自称有事要冯某帮忙,要冯某加他的QQ号。

在成功添加对方好友之后,对方就给冯某拨通了视频电话。虽然只有短短7秒的通话时间,却也足够让冯某认清对方的长相和声音了。

通过视频通话,冯某确定是自家表哥无疑,对方表示网络质量不好,没法长时间视频,还是打字说。接着,这个自称“表哥”的人说自己的朋友急需钱,但是不方便从自己的账户支出,需要冯某做个中间人,把65万转到朋友的账上。当然,他也表示会先把钱先转到冯某的账户里。

随后,冯某就收到了一张转账记录截图,上面显示了冯某的账号和名字,但冯某查了一下银行卡,还没到账,对方说晚一会儿。然后又等了大约20分钟左右,“表哥”又说朋友那边等着用,让冯某先垫付一下。

虽说有了转账凭证,但是钱款迟迟没有到账,这让冯某有些犹豫。这时,对方又提出了视频请求。视频的时候,冯某看到就是表哥的脸,之后帮其垫付了30万。转账之后,冯某通过微信给表哥发了一个确认信息,但表哥表示毫不知情。冯某这才发现自己上当受骗,随后立即报警。最终,警方通过技术手段侦查,抓获了4名犯罪嫌疑人。

2

“眼见”为虚

不断迭代的AI技术,已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢?相关技术企业表示,我们可以要求对方用手遮住他的眼睛、鼻子这些关键特征(部位),就能看出明显的破绽。此外,AI生成的视频也可以通过专业的软件来进行识别。

随着技术的升级迭代,上述的方法也有可能没法有效查验出来。在这种情况下,就需要我们更新“眼见为实”的传统判断,不要轻易相信与财产往来有关的视频通讯。另外,我们可以借助一些视觉之外的信息进行综合判断,例如提问一些仅双方知晓的问题,说一下方言,也可以利用其他通讯方式,又或者通过见面的方式进行核实,还可以向对方的朋友、家人了解相关情况。

大家在上网的时候,也要重视个人信息的保护。个人信息泄露是“AI 诈骗”不法分子得以趁虚而入的一个缺口。因此,在数字时代,我们每个人都应当提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友。另外,要对个人社交账户的安全状况保持警惕,尽量避免在互联网过多暴露个人照片、声音、视频等信息,也不要贪图方便,把身份证、银行卡照片等直接存放在手机里。如果不慎被骗或遇到可疑情形,要注意保存证据并向公安机关报案。

想知道更多精彩内容

敬请锁定晚约七点

深圳都市频道《第一现场》播出的

《法说平安》2024年第2期节目

《“眼见”不一定为实

谨防AI新型技术诈骗》

↓↓↓

关注并进入“深圳政法”微信公众号

点击“法说平安”选择“精彩直播”

明晚即可同步观看

明晚(1月10日)7:00

拉上小伙伴一起观看哦~

 END. 

来源·深圳政法

#转载请注明以上信息#

免责声明:本文由南方+客户端“南方号”入驻单位发布,不代表“南方+”的观点和立场。
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开