你听说过“AI换脸”技术吗?
只要上传自己的照片
就可以将自己变成电影里的人物
可如今却有人将这项技术
用到了诈骗上
2024年第2期《法说平安》
带你走进“AI新型技术诈骗”
本期提要
1
真假“表哥”
2023年5月,家住山东的冯某正在用手机APP观看短视频,突然他在 APP 里收到了一条私信加好友的请求。点开后,发现是自己亲戚白某,于是冯某通过了请求,随后,对方自称有事要冯某帮忙,要冯某加他的QQ号。
在成功添加对方好友之后,对方就给冯某拨通了视频电话。虽然只有短短7秒的通话时间,却也足够让冯某认清对方的长相和声音了。
通过视频通话,冯某确定是自家表哥无疑,对方表示网络质量不好,没法长时间视频,还是打字说。接着,这个自称“表哥”的人说自己的朋友急需钱,但是不方便从自己的账户支出,需要冯某做个中间人,把65万转到朋友的账上。当然,他也表示会先把钱先转到冯某的账户里。
随后,冯某就收到了一张转账记录截图,上面显示了冯某的账号和名字,但冯某查了一下银行卡,还没到账,对方说晚一会儿。然后又等了大约20分钟左右,“表哥”又说朋友那边等着用,让冯某先垫付一下。
虽说有了转账凭证,但是钱款迟迟没有到账,这让冯某有些犹豫。这时,对方又提出了视频请求。视频的时候,冯某看到就是表哥的脸,之后帮其垫付了30万。转账之后,冯某通过微信给表哥发了一个确认信息,但表哥表示毫不知情。冯某这才发现自己上当受骗,随后立即报警。最终,警方通过技术手段侦查,抓获了4名犯罪嫌疑人。
2
“眼见”为虚
不断迭代的AI技术,已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢?相关技术企业表示,我们可以要求对方用手遮住他的眼睛、鼻子这些关键特征(部位),就能看出明显的破绽。此外,AI生成的视频也可以通过专业的软件来进行识别。
随着技术的升级迭代,上述的方法也有可能没法有效查验出来。在这种情况下,就需要我们更新“眼见为实”的传统判断,不要轻易相信与财产往来有关的视频通讯。另外,我们可以借助一些视觉之外的信息进行综合判断,例如提问一些仅双方知晓的问题,说一下方言,也可以利用其他通讯方式,又或者通过见面的方式进行核实,还可以向对方的朋友、家人了解相关情况。
大家在上网的时候,也要重视个人信息的保护。个人信息泄露是“AI 诈骗”不法分子得以趁虚而入的一个缺口。因此,在数字时代,我们每个人都应当提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友。另外,要对个人社交账户的安全状况保持警惕,尽量避免在互联网过多暴露个人照片、声音、视频等信息,也不要贪图方便,把身份证、银行卡照片等直接存放在手机里。如果不慎被骗或遇到可疑情形,要注意保存证据并向公安机关报案。
想知道更多精彩内容
敬请锁定明晚约七点
深圳都市频道《第一现场》播出的
《法说平安》2024年第2期节目
《“眼见”不一定为实
谨防AI新型技术诈骗》
↓↓↓
关注并进入“深圳政法”微信公众号
点击“法说平安”选择“精彩直播”
明晚即可同步观看
明晚(1月10日)7:00
拉上小伙伴一起观看哦~
END.
来源·深圳政法
#转载请注明以上信息#
订阅后可查看全文(剩余80%)