 △庆南地方警察厅 据韩国庆南地方警察厅5月22日通报,警方近日破获一起利用人工智能技术制作、传播“深度伪造(Deepfake)”色情视频(即AI换脸色情视频)的重大案件,已逮捕23名犯罪嫌疑人,年龄跨度从10岁至40余岁。这些嫌疑人主要罪行包括制作性剥削材料和传播虚假视频等。  △受害者的脸被“移植”到色情视频的示意图 案件核心嫌疑人是一名高中生(A某)。调查显示,A某从去年11月至今年4月期间,创建并运营了三个聊天群组,上传了约500部自制合成色情视频。其同伙包括15名青少年和7名20至40多岁的成年人,这些人在群组中累计制作分享了3500余部色情视频。涉案的聊天群组参与者高达840余人。  △示意图 警方调查发现,犯罪团伙利用市面上可免费获取的AI应用程序,将女明星和普通女性的面部图像移植到裸照上,制作成逼真的伪造视频。今年2月,警方接到线报称某群组“OOO Room”内有人使用十几岁和二十几岁青少年偶像照片制作Deepfake视频,随即展开调查。 A某等嫌疑人供述犯罪动机“纯粹出于性好奇和好玩心理”。 目前,韩国警方正在追查更多Deepfake性犯罪。 潇湘晨报记者何博奇
|