警惕AI诈骗:声音、画面和视频通话,都能以假乱真!

职场老油子 2023-05-24 13:07:06

先看一则由包头市公安局公布的案例:

2023年4月20日,福州的郭先生接了到好友的微信视频通话,好友在视频通话中告诉他,自己在外地参加投标,急需430万保证金。

并且他还告诉郭先生,这笔钱需要经过郭先生的公司,对公过账:他会给郭先生的公司账上转430万,而同时郭先生公司账户也给他的银行卡转430万。

因为是关系很好的朋友,郭先生对他很信任。并且已经视频聊天过了,郭先生二话没说,就从公司账上给好友转了430万。

事后郭先生给好友打电话,才知道被骗了。

这是目前公布的,涉案金额巨大的AI诈骗案。类似的案件其实也是屡见不鲜。

早在2020年,上海就有一家公司被骗子用AI合成高管的脸和声音,被骗转账150万元。

从2021年开始,更是有多位受害者,被人以AI合成的不雅视频敲诈勒索。

2022年年初,浙江的陈先生被骗子使用“AI换脸”技术,伪装成好友,诈骗了近5万元。

01

高科技,总是更早被使用在不正当的场合。

新科技需要大量的研发成本。在高科技最早出现时,由于没有规模效应,应用成本非常高昂。所以,只有在高回报的应用场景,才更有使用它的底气。

你看!人脸识别技术,被房产销售非法用于客户筛选了;大数据技术,被一些无良电商用来“杀熟”了;如今,AI被用来诈骗了……

任何技术都只是一个工具,没有善恶之分。随着AI技术的普及,这类情况势必会越来越多。

02

可能从新闻报道、短视频、朋友圈,年轻人了解了更多类似的诈骗手段,会逐渐提高防范意识。但是老年人呢?

老年人,在高科技面前,非常缺乏鉴别能力,更容易上当受骗。

可能只是使用声音合成,模拟出一个特定的声音,发一段语音信息给老人,老人都会毫不怀疑。

更别提使用AI换脸技术,合成一段声情并茂的视频片段了。

更高级的是,利用AI即时换脸和拟声,进行视频通话。这种情况,可能目前大多数人都不能幸免。

03

在新的高科技骗局面前,应该如何防范AI诈骗呢?

1、应该从多种沟通渠道确认。如果涉及贵重财物的转移,应当利用电话,或是见面等手段,进行确认。

2、对微信文字、语音、图片、视频文件留个心眼,持怀疑态度,通过微信视频进行确认。

3、微信视频过程中,要求对方用手指在正脸前晃动,或是用手掌挡住半边脸。因为AI换脸技术建立在完整的正脸画面上进行计算和替换,异物的介入,或是脸部信息缺失,将会导致画面扭曲。

4、在视频通话过程中,问一些相互间知道的信息,比如共同经历的事、共同亲友的姓名,等一些不为外人知道的信息。

5、不轻易向他人提供人脸、指纹等个人生物信息,不过度公开或分享动图、视频等。

6、不要在手机上点击陌生链接和下载非正当软件市场的APP,不随意添加陌生好友,防止中病毒而被盗号。

写在最后:

骗子的手段越来越高明,让人防不胜防。

但骗子的目的永远不会变:想要骗取我们的钱财。

当涉及贵重财物转移时,要马上提高警惕,使用多种方式再三确认。

0 阅读:190

职场老油子

简介:十五年HR管理经验。人力资源管理师,经济师。