防诈小课堂
——AI诈骗
近日,“AI诈骗正在全国爆发”冲上微博热搜,随着人工智能的迅猛发展,“AI换脸”的应用范围也越来越广,甚至有人利用AI换脸实施诈骗。
如此以假乱真,让人防不胜防。大部分网友直呼,再也不敢相信网络上的视频了!那么,怎样才能辨别AI诈骗呢?如果是我们遇到了AI诈骗我们应该如何解决?接下来就让小安带大家了解一下吧!
什么是AI诈骗
AI诈骗是指利用人工智能技术和算法,进行各种欺骗手段和网络攻击,以达到非法获取个人信息、财产和敏感数据的目的。这些诈骗分子利用AI技术的高度智能和自动化特点,可以更加精准地针对受害者展开攻击,并且更加隐蔽和难以察觉。
AI诈骗的类型
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方;
AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任;
转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们却可以通过提取语音文件或安装非官方版本,实现语音转发。
具体案例
公司老板遭遇AI换脸诈骗
10分钟被骗取430万元
近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。
AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。
AI换脸冒充明星带货
除了佯装“熟人脸”实施诈骗,AI换脸还可能出现在直播带货中。最近,网上出现了一些“换脸直播”教程,教程发布者声称实时变脸软件可以帮助用户轻松“变脸”,极大地助力引流卖货。
在一个展示换脸直播效果的视频中,使用者把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。
整治AI诈骗,要用“法”打败“魔法”
在去年爆火的刑侦剧《猎罪图鉴》中,沈翊的老师许意多遭受犯罪团伙诈骗,犯罪人利用AI换脸技术冒充许意多儿子骗取汇款,致使许意多最终自杀身亡。
那么在现实生活中,随意利用他人肖像AI换脸,要承担什么法律责任?
首先,制作及传播AI换脸视频可能侵犯他人肖像权。根据民法典第990条及1018条的规定,肖像权是以自然人享有的对自己肖像上所体现的人格利益为内容的一种人格权。肖像权包括公民有权拥有自己的肖像,拥有对肖像的制作专有权和使用专有权,公民有权禁止他人非法使用自己的肖像权或对肖像权进行损害、玷污。
制作及传播AI换脸视频可能侵犯他人名誉权。如果使用AI换脸技术存在主观恶意,造成肖像权人的社会评价降低、名誉受损等后果,那么无论AI换脸技术使用者是否出于营利目的,均有可能构成名誉权侵权。
因此,当发现网络上有人用AI换脸技术实施侵权行为的,可以在收集相关证据后,通知网络服务提供者如视频平台、论坛等删除侵权视频和相关链接。如果该网络服务提供者没有及时将通知转送该侵权人,没有及时采取必要措施的,应当对造成损害的扩大部分承担连带责任。
和你一起视频的人都是假的?那也太可怕了,有没有什么预防的办法啊?
转账汇款多方核实,一旦涉及钱款,一定要提高警惕,切勿轻易转账,一定要通过电话等能产生实际交流的方式确认对方身份;
保护信息,提高警惕。不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。
小安说
在信息技术和移动互联网快速发展时代背景下,电信网络诈骗犯罪形式更迭不断,新的诈骗手法随着新技术、新应用、新业态的出现应运而生并不断演变升级。反复核实和保护隐私,是当下防范电信网络诈骗的重中之重。千万切记!不听、不信、不转账!