(资料图片仅供参考)
华商网讯(记者王欢钟梦哲)近日,AI换脸犯罪引起社会高度关注,AI换脸以假乱真的效果有多强?据平安包头发布消息称:福建某科技公司老板遭遇AI换脸诈骗10分钟被骗走430万。该案中,诈骗分子通过使用他人真实姓名及照片,冒充他人身份与被害人微信聊天,再利用“AI换脸”技术和被害人进行短暂视频通话,博取被害人信任后实施诈骗。
事实上,除了换脸诈骗之外,还有利用AI进行声音合成实施的诈骗。随着AI技术的广泛使用,AI诈骗逐渐出现在大众视野中,这种诈骗手段对于公众来说,极具迷惑性,特别对于那些缺乏足够辨识力的老年人来说,更是轻易上当受骗。
目前,常见的AI诈骗主要有以下几种:
1.声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2.AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。
3.转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
为了防范AI换脸诈骗,我们应该注意保护自己的哪些信息?
1.保护好自己的人脸、指纹、声音等个人生物信息。
2.个人微信、QQ、微博、抖音等社交账号的密码、验证码。
3.不要随便点击陌生的链接、下载陌生的软件或添加陌生的好友。
面对真假难辨的AI视频通话,我们应该如何防范?
1.冷静应对,目前AI技术并不能做到完美还原,很多诈骗分子担心时间长穿帮,会在实施诈骗时编造一个紧急借口致使受害人一时难以反应,接到这种电话或语音一定要保持冷静,注意分辨。
2、如果你怀疑对方可能是通过AI伪造的声音,你可以尝试用方言与对方交流。
3、也可以追问一些只有你与对方会之间才知道的私密信息,核实对方身份,避免被诱骗。
4、最重要的一点就是,一旦涉及到转账汇款时,要多方确认对方身份,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。
5、当前信息技术发展快,老人常常难以适应,中青年人要及时做好家中老人的宣传教育工作。提醒老年人对不认识、不熟悉的人和事,均不要理睬,向老年人及时解析新型诈骗手段,以防被骗。遇到亲友借钱,应多方核实,不要贸然转账。
标签: