8月12日,正在上班的成都市民张先生收到了一条QQ好友申请。没想太多,张先生通过了这位陌生人,很快对方给他发来了一段不雅视频 随后张先生报警,经新津警方辨认核查,对方提供的视频和照片都是由AI换脸生成的。这是新津出现的第一例AI电信诈骗,也是成都公开报道中的首例AI电信诈骗。 对此,反诈宣传自媒体科普作者、@黑客情报站主编罗老师表示,伴随着生成式AI的诞生,AI换脸的门槛和难度逐年下降。“各位市民如果遇到了疑似AI换脸的视频,可以从多个角度辨别真假,例如对话、声音、指定动作等。” 男子收到“AI换脸”不雅视频被勒索 警方及时止损 看到自己为主角的不雅视频,成都人张先生傻了眼。发视频的陌生网友要挟张先生,要他转账1万元“消财免灾”。如果不给钱,就把这些视频、照片发给张先生周围的朋友。张先生自己回忆,并没有参与过这类不雅视频拍摄,和视频中的女性也不认识,他认定这些内容属于杜撰,思虑再三后报了警。 8月12日,成都新津公安分局普兴派出所民警丁思鸣接到了成都110指挥中心转来的警情,并与张先生见面。 “当时报警人自述,说被人P了图像,对方要求他给1万块钱。”丁思鸣回忆。在过往的类似案件中,更多是男女双方裸聊,在裸聊过程中受害人被诈骗者录屏拍照,再进行勒索。像这样纯P图,通过AI制作不雅视频的事件,在新津区尚属第一次。在目前成都的公开报道中,AI诈骗也是第一次出现。 “我们通过网上核实,发现外地出现过类似案件。”丁思鸣表示,“这些诈骗分子主要是针对社会上的中高端人群,先是窃取受害人的个人信息,包括电话、姓名、头像等。其实受害人很清楚这类视频照片是假的,但碍于身份,部分受害人不希望传播造成不良影响,会主动给钱来息事宁人。” 丁思鸣现场告知张先生,这是典型的电信诈骗,不法分子利用AI技术制造合成视频,从而实施网络诈骗。遇到此类诈骗信息千万不要选择“破财消灾”,更不能和对方联系或向其转钱。最后,民警引导张先生在自己手机上下载注册“国家反诈中心”App并进行举报,有效避免财产损失。 业内人士: 可以从对话、声音、指定动作等多维度辨别真假 这类AI换脸诈骗是如何实现的呢?8月15日,红星新闻记者联系上反诈宣传自媒体科普作者、@黑客情报站主编罗老师。 “其实AI换脸技术已经广泛发展很久了。伴随着生成式AI的诞生,AI换脸的门槛和难度逐年下降,现在可以说用户只需要一台配置稍微好点的电脑,就可以实现初步的AI换脸效果。”罗老师介绍,现有的协助软件也很多,但市民不用过于担心,“因为相较于AI直接从零生成视频的SORA模型,AI换脸至少还需要你的正面照片作为训练对象。对于老百姓来说,面部资产其实并不是那么容易被不法分子得到。” “如果遇到了疑似AI换脸的视频,可以从多个角度辨别真假,例如对话、声音、指定动作等。”罗老师表示,“因为以如今的AI换脸技术发展程度来看,虽然可以以假乱真,但没有办法做到实时无缝(连接)替换。只要多从几个角度去测试,便可以轻松识别以 对于AI电信诈骗,新津公安提醒:凡是突然收到不明来路的照片、视频,做到不听、不信、不转账;加强保密意识,避免泄露个人隐私,遇到此类诈骗,注意及时完整保存图片、视频、文字等证据,及时拨打110报警求助。
|