首页 > 新闻资讯 > >正文

“AI诈骗”上热搜!有人10分钟被骗430万?警方提醒……

来源:中国教育新闻网2023-05-25 05:48:07

5月22日


(资料图片)

话题#AI诈骗正在爆发#

冲上微博热搜



据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元


4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。


“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。


幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。


多地出现AI诈骗案例


据华西都市报此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。


浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。


2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元


AI诈骗常用手法


第一种:声音合成


骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。



案例 



某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。


第二种:AI换脸


人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。


骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。



案例


近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。


第三种:转发微信语音


骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。


尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。


第四种:AI程序筛选受害人


骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。


例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。


如何防范?


多重验证,确认身份


如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;


对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的;


网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;


如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;


保护信息,避免诱惑


不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;


陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号;


提高安全防范意识


公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询;


如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。


技术滥用风险在加剧


为了规范人工智能发展,尤其是规避AI换脸带来的系列问题,去年12月,《互联网信息服务深度合成管理规定》正式发布,对数据和技术管理规范进行了明确。


比如,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。


简单来说,这些技术服务公司,不能随便使用普通人的人脸来换脸,必须经过本人同意,换脸不是想换就能随便换,也不是骗子给钱就能随便换。如果就此案深挖下去,不排除能揪出一条非法利用人工智能技术的黑产业链。


当然,人工智能开发还是一个高速成长的领域,规则的健全完善还需要时间。但不管怎么说,此次案件都提醒我们,技术被滥用的风险,对普通人造成的安全隐患和威胁,绝对不容低估。


对大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时应更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。


只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好地保护每个人的信息和财产安全。


转发提醒!

勿入骗局!


文章来源:中国教育新闻网综合自央视网、北京日报、中国新闻社、“平安包头”微信公众号、华西都市报、武汉市反电信网络诈骗中心、吉林警事等

图片来源:包图网、“平安包头”微信公众号、微博截图

本文只为传递信息,如存在文章/图片/音视频等资源使用不当的情况,请联系中国教育新闻网。

本期编辑:戚悦

觉得好看,点赞在看!

标签:

下一篇: 最后一页
上一篇: 快狗打车(02246.HK):5月24日南向资金减持11.6万股|观速讯