84
浏览前言
假如某一天,“住校的女儿”找你要生活费,“远房亲戚”有急用找你借钱,看到视频中熟悉的脸,听到语音中熟悉的声音,你是不是毫无怀疑地转账?
眼见不一定为实,耳听也不一定为真,如今,人工智能发展迅猛,诈骗团伙也紧跟潮流,用上了AI技术,大家一定要提高警惕,涉及金钱交易,一定要反复确认,防止财产损失。
一. 什么是AI诈骗?
AI诈骗是一种利用智能AI技术实施诈骗的新型诈骗手段,AI智能系统通过多方收集的数据,能够合成我们身边熟人的面容和声音,可以做到与本人无太大区别的程度。面对如此“真实”的语音影像,被骗者很容易“中招”。
二. AI诈骗常见形式有哪些?
01 声音合成
骗子通过拨打骚扰电话并录音等方式提取到某人的声音,在获取素材后对声音素材进行合成,从而伪造出可以用于诈骗的声音内容,进而使用这些伪造的声音实施。
案例回顾:近日,一对夫妻突然接到儿子电话,儿子很慌张的说出了自己开车撞倒了路人的全部经过,夫妻俩一听说儿子出事了,都心急如焚。这时,儿子的律师又也打来电话,表示打官司和协商赔偿需20万元。由于第一通电话儿子的声音很熟悉,夫妻俩没多想,很快把钱转到了对方要求的指定账户上,当天晚上,夫妻俩的儿子给他们打了电话,这时才知道自己被骗了。
02 AI换脸
骗子首先会在网上搜集公众发布的照片、视频等各类信息,并对收集到的信息进行分析,然后根据所要实施的骗术需求生成假脸,再通过AI技术筛选目标人群。最终在视频通话中利用AI换脸,骗取受害人信任后实施诈骗。
案例回顾:受害人郭先生是福州市一家科技公司的法人代表,4月30日中午,郭先生接到了好友的视频电话,好友表示自己正在外地参与竞标,急需430万元缴纳保证金。由于需要在对公账户上过账,因此好友希望能从郭先生公司的账户上过账。在视频电话里他也清楚的看到了好友的模样,说话的声音也非常熟悉,对此郭先生并没有感到怀疑,怕耽误了好友竞标,便赶紧将430万元分两次转入了好友的账户,随后才发现自己被骗。
03 转发微信语音
诈骗分子在盗取他人微信号后,便向其好友借钱,为取得对方信任会转发之前的微信语音。尽管微信没有语音转发功能,但诈骗分子通过提取语音文件或安装非官方版本(插件),可实现语音转发。
04 AI筛选受骗人群
诈骗分子利用AI技术分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。例如,诈骗分子实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
三. 如何防范AI诈骗?
01 加强个人信息保护
不管是在互联网还是社交软件上,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等内容,以免被骗子“精准围猎”。
02 确保各类账号安全
避免在不可信的网络平台上下载未知来源的应用程序,不打开来路不明的邮件附件,不点陌生链接,不随意添加陌生好友,防止手机、电脑中病毒及微信、QQ等被盗号。
03 多重验证确认身份
在涉及金钱往来等重要事项时,可要求对方提供更多证据,进行更多交流,多聊一些细节回忆等。尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款。
结语
眼见不一定为真,耳听也不一定为实。无论骗子利用何种技术更新诈骗手段和套路,破解的方法万变不离其宗,要切实增强防诈骗意识,在遇到朋友借钱时,记得反复核实身份,不要轻易转账,保护自身财产安全。一旦发现被骗,请及时报警求助。