今天看到一则新闻,包头警方发布一起利用AI实施电信诈骗的案例,一位郭先生被骗430万元。经过是郭先生好友通过微信视频联系,提出借钱需求,郭先生直接就转账了。后来,郭先生拨打好友电话,才知道被骗。骗子通过AI换脸和拟声,佯装成了好友。
这则新闻是让人不寒而栗的,如果发生在自己身上,估计也会被骗,原因如下:
第一,骗子作为微信好友联系了郭先生,不是陌生微信;
第二,耳听为实,眼见也为实,骗子使用了拟声和换脸技术,让郭先生以为就是朋友;
第三,账户姓名就是朋友,不是陌生人。
有人说以后转账前,打电话确认一下,这并不能解决一切问题的,因为朋友的手机卡理论上可能被复制,也可能丢失,如果应用了拟声技术,确实很难防范。
还有人说和亲友约定暗号,这是一个方法,但并不实用。想想自己能记住多少密码,再说能和多少亲友约定暗号吧,而且对方愿意和你约定暗号吗?对方会不会想,当朋友就是为了以后钱上能帮忙吗?
对于我们来讲,唯一能防范AI诈骗的方式就是见一面,可惜在很多场景,见一面并不容易,再加上骗子的话术,在情急之下,受骗者很难保持冷静思考。
那么有什么好的办法能防范呢?
在我看来,个人很难防范,更实际的办法是期待微信不断优化,在视频交流中能做好真人检测,并识别AI换脸和拟声。
虽然这个案例令人心惊,但我们不用过分恐慌,因为骗子作案成功的难度也很大,要同时满足以下条件:
一是盗取微信;
二是盗取或复制银行卡;
三是有能力换脸和拟声(如果手机被盗,会比较危险,有自拍照的话,可能被换脸,但微信语音或录音的话,可能被拟声);
四是银行卡资金好转移。
其中第四点并不容易,转账都有记录,提现要躲摄像头,每天还有限额。郭先生最后不是追回了部分资金吗?我想,大概骗子也为转移资金发愁吧。