10 分钟时间,被骗走 430 万,警方出手追回了336 万,但还是损失了 90 多万。
这是我在网上看到的一个新闻,而这个骗局的手法就是通过 AI 换脸。
(资料图片)
福州一家公司的老板收到朋友发来的微信视频电话,说现在需要 430 万走一下公对公账做竞标用,然后问这个老板要了一下账号。
过了一会,声称钱已经转过去了,让这个老板转到对公账户即可。
因为是视频通话确认过,所以这个老板也没有多疑,更没有查询钱是否到账,直接分两笔把 430 万打过去了。
结果后来电话和这个朋友确认时,发现被骗了。
幸好警方和银行配合拦截了欠款,冻结追回了336 万,但依旧有93 万被转走了。
可能有读者会说了,这也能上当?这么大一笔钱难道不小心一点么?
理论上都是这样的,但绝大多数成功的骗局就是连被骗人自己都信了,当他们放下警惕并基于信任的时候,骗子得手了。
更何况,这种实时视频通话的当面确认,更是让人不得不信。
而这个骗局的手法,其实就是骗子利用 AI 换脸来假装被害人好友进行行骗。
我在网上搜了下 AI 换脸的防骗视频,从内容展示来看,AI 换脸的拟真度非常高,基本可以做到以假乱真的地步。
试想一下,如果一个冒充你家人或朋友的微信打来视频通话,在相貌和声音上都和真人一模一样,你会第一时间怀疑真实性么?
或许有人会说,这能做到么?
不要低估骗子的手段和耐心,他们完全可以通过各种方式弄到你家人的照片、视频、声音,甚至是和你相关的各种社会关系。
然后,他们就开始演戏了。
首先用一个别的微信号以伪装的方式加上你微信,过了一段时间后,他们把这个微信的头像和名称换成你的某个朋友或家人。等一切就绪了,再通过 AI 换脸和换声来和你视频通话。
接下来的剧本,全部按照他们事先的设计进行,哪怕只有 0.5% 的成功率,只要金额够大,他们的 ROI 就为正。
就像上面提到的这个骗局,10 分钟骗走到账93 万,可以说比较成功了。
那么,这样的骗局该如何防患?
首先,不要轻易泄露自己的基本信息,尤其不要在一些不确定来源的产品或者网站上去登记个人信息,包括视频和声音采集。
其次,也不要轻易去晒自己家人和朋友的照片、视频以及相关详细信息。
另外,AI 换脸虽然可以做到以假乱真,但只要用手遮住脸部的一部分,还是可以看到破绽的,用手来回来换脸后的面部晃动,也能看到画面的扭曲。
如今,这样的 AI 服务也有很多供应商在提供,有的甚至是打着正规名义在做暗地里买卖。
之前在一些电商平台还能直接搜到关于 AI 换脸的内容,不过后来应该是治理过就搜不到了。
但是,还是可以通过其他的一些关键词搜到,挂着羊头卖狗肉的事谁也不知道。
可以肯定的是,这样的黑产骗局每天都在持续发生,而且持续有人被骗。
因此,还是劝你们都小心一点。不仅是自己小心,也要提醒家人小心,尤其是家里父母亲戚,如果他们收到你的视频电话,默认都是百分百相信的。
不要觉得这些都是新闻上的事,说不好哪天就出现在你身边或发生在你身上。
去年我也写过一篇文章,说的是我接到境外诈骗电话的事,骗子对我的信息掌握很多,而且会冒充其他平台的工作人员来和我确认各种事实。
好在我这个人比较谨慎,也从不轻易相信别人。
其实电信诈骗大多有一个破绽,就是电话那头的口音比较重,不是标准普通话,而且只要你多说几句,他就会情绪不稳定。
当然,这是初级诈骗选手。
如果碰上资深诈骗选手,那他们前期准备和培训会做得非常充分,甚至为了骗一个人提前预设非常长的剧情,就为了钓人上钩。
说到这,其实也衍生出了另一个话题,技术有罪么?
AI 作为一种快速发展的技术,后期的应用场景会越来越丰富,随之而来的监管和治理难度也会越来越大。
一些掌握技术能力的人如果不安好心,就会钻空子去做违法的事。
在我看来,技术本身是无罪的,但使用技术的人有三观和自主能力。如果使用技术去作恶,那背后的人就一定有罪。
作为普通人,我们还是多个心眼为好。
毕竟,现在已经不是见字如面的时代了,你也无法确认见到的人一定是真人。
安可时刻
昨天晚上和这一期星球价值个体成长计划的同学进行产品作业点评,两个小时聊了很多,对于一款产品大家输出了很多想法。
我挺喜欢这样的过程,因为都是思想的碰撞,大家学到东西的同时我也收获很多。
周末会开始和他们密集的一对一沟通指导,希望能帮他们解决更多个性化问题。