AI诈骗是指不法分子利用AI技术,通过声音合成,伪造成特定人物的声音;通过换脸技术,伪装成特定人物,实时与他人进行音视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系消费者,博取消费者信任后实施诈骗。
据介绍,利用声音合成,骗子一般是通过骚扰电话录音等来提取声音,获取素材后进行声音合成,从而用伪造的声音来实施诈骗。AI换脸前,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,并用AI技术换脸,伪装成目标人的亲戚、朋友等重要关系人,通过视频方式进行信息确认骗取信任,来实施诈骗。另外,有不法分子还会通过AI技术,转发微信语音实施诈骗。他们盗取微信号后,便向其好友“借钱”,为取得对方的信任,会转发之前的语音,进而骗取钱款。
消费者如何防范AI电信诈骗?首先是要保护个人信息,防范个人信息泄露,在生活中加强个人信息保护意识,切勿接受陌生人邀请的视频验证或语音聊天,切勿在网上公开或提供给陌生人或不明平台姓名、照片、声音、联系方式等;其次,对于不明来源或可疑内容的视频或语音通话要谨慎接听或回复,涉及钱款时,要提高安全意识,通过电话、视频等多种方式确认对方是否为本人;另外要注意对方的声音、人脸是否有不协调的特征,多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼。
记者 梁丹 马向敏

