往期阅读
当前版: 05版 上一版  下一版
上一篇    下一篇
放大 缩小 默认   

警惕!AI换脸、换声可能骗你

  和你视频对话的,或许并不是其本人……数字化浪潮席卷社会的方方面面,诈骗手段也随之更新迭代。近期,有不法分子盯上了AI技术,通过AI换脸、AI换声等虚假音视频实施诈骗,在保险金融领域此类案件也时有发生。对此,山西省保险行业协会近日发布提醒,广大保险金融消费者,要提高警惕,加强防范。

  AI诈骗是指不法分子利用AI技术,通过声音合成,伪造成特定人物的声音;通过换脸技术,伪装成特定人物,实时与他人进行音视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系消费者,博取消费者信任后实施诈骗。

  据介绍,利用声音合成,骗子一般是通过骚扰电话录音等来提取声音,获取素材后进行声音合成,从而用伪造的声音来实施诈骗。AI换脸前,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,并用AI技术换脸,伪装成目标人的亲戚、朋友等重要关系人,通过视频方式进行信息确认骗取信任,来实施诈骗。另外,有不法分子还会通过AI技术,转发微信语音实施诈骗。他们盗取微信号后,便向其好友“借钱”,为取得对方的信任,会转发之前的语音,进而骗取钱款。

  消费者如何防范AI电信诈骗?首先是要保护个人信息,防范个人信息泄露,在生活中加强个人信息保护意识,切勿接受陌生人邀请的视频验证或语音聊天,切勿在网上公开或提供给陌生人或不明平台姓名、照片、声音、联系方式等;其次,对于不明来源或可疑内容的视频或语音通话要谨慎接听或回复,涉及钱款时,要提高安全意识,通过电话、视频等多种方式确认对方是否为本人;另外要注意对方的声音、人脸是否有不协调的特征,多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼。

  记者 梁丹 马向敏

上一篇    下一篇
 
     标题导航
   第01版:要闻导读
   第02版:都市新闻
   第03版:社会新闻
   第04版:热线新闻
   第05版:经济新闻
   第06版:寻医问诊
   第07版:寻医问诊
   第08版:亚运·起杭
   第10版:亚运·起杭
   第11版:为民创城不停步
   第12版:中国新闻
   第13版:中国新闻
   第14版:中国关注
   第15版:国际新闻
   第16版:国际关注
   第17版:旅行专刊
   第18版:健康生活
   第19版:老年闲趣
   第20版:老年往事
   第21版:学校专刊
   第22版:学校美术汇
   第23版:天龙文苑
   第24版:天龙新知
市场监管局来了小朋友
警惕!AI换脸、换声可能骗你
晋阳海关织密知识产权“保护网”
桃园四巷柳巷南路完成养护施工
电动汽车充完电记得“拔枪”
优质税收服务 助力小微企业