先看一则由包头市公安局公布的案例:
2023年4月20日,福州的郭先生接了到好友的微信视频通话,好友在视频通话中告诉他,自己在外地参加投标,急需430万保证金。
并且他还告诉郭先生,这笔钱需要经过郭先生的公司,对公过账:他会给郭先生的公司账上转430万,而同时郭先生公司账户也给他的银行卡转430万。
因为是关系很好的朋友,郭先生对他很信任。并且已经视频聊天过了,郭先生二话没说,就从公司账上给好友转了430万。
事后郭先生给好友打电话,才知道被骗了。
这是目前公布的,涉案金额巨大的AI诈骗案。类似的案件其实也是屡见不鲜。
早在2020年,上海就有一家公司被骗子用AI合成高管的脸和声音,被骗转账150万元。
从2021年开始,更是有多位受害者,被人以AI合成的不雅视频敲诈勒索。
2022年年初,浙江的陈先生被骗子使用“AI换脸”技术,伪装成好友,诈骗了近5万元。
01
高科技,总是更早被使用在不正当的场合。
新科技需要大量的研发成本。在高科技最早出现时,由于没有规模效应,应用成本非常高昂。所以,只有在高回报的应用场景,才更有使用它的底气。
你看!人脸识别技术,被房产销售非法用于客户筛选了;大数据技术,被一些无良电商用来“杀熟”了;如今,AI被用来诈骗了……
任何技术都只是一个工具,没有善恶之分。随着AI技术的普及,这类情况势必会越来越多。
02
可能从新闻报道、短视频、朋友圈,年轻人了解了更多类似的诈骗手段,会逐渐提高防范意识。但是老年人呢?
老年人,在高科技面前,非常缺乏鉴别能力,更容易上当受骗。
可能只是使用声音合成,模拟出一个特定的声音,发一段语音信息给老人,老人都会毫不怀疑。
更别提使用AI换脸技术,合成一段声情并茂的视频片段了。
更高级的是,利用AI即时换脸和拟声,进行视频通话。这种情况,可能目前大多数人都不能幸免。
03
在新的高科技骗局面前,应该如何防范AI诈骗呢?
1、应该从多种沟通渠道确认。如果涉及贵重财物的转移,应当利用电话,或是见面等手段,进行确认。
2、对微信文字、语音、图片、视频文件留个心眼,持怀疑态度,通过微信视频进行确认。
3、微信视频过程中,要求对方用手指在正脸前晃动,或是用手掌挡住半边脸。因为AI换脸技术建立在完整的正脸画面上进行计算和替换,异物的介入,或是脸部信息缺失,将会导致画面扭曲。
4、在视频通话过程中,问一些相互间知道的信息,比如共同经历的事、共同亲友的姓名,等一些不为外人知道的信息。
5、不轻易向他人提供人脸、指纹等个人生物信息,不过度公开或分享动图、视频等。
6、不要在手机上点击陌生链接和下载非正当软件市场的APP,不随意添加陌生好友,防止中病毒而被盗号。
写在最后:
骗子的手段越来越高明,让人防不胜防。
但骗子的目的永远不会变:想要骗取我们的钱财。
当涉及贵重财物转移时,要马上提高警惕,使用多种方式再三确认。