接到“弟弟”的借钱电话后转账数万元,被屏幕对面的“好友”骗走数百万元,“多人视频会议”中竟然只有自己是真人……近期,全国各地接连曝光多起电信诈骗案件,其共同特点是诈骗分子利用AI合成技术“换脸”“换声”,这种深度伪造导致受害者“耳听为虚”“眼见也非实”。
当前,诈骗分子得以构建复杂的虚拟场景,通过合成视频、音频增加诈骗的可信度,呈现出AI技术普及、应用多元、身份伪造具体化以及作案模式精准化等特点。这种趋势下,传统防范意识和方法已难以应对。
今年某地警方披露的一起案件令人瞠目结舌。一家跨国公司地方分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按要求先后转账多次,将2亿港元分15次转到5个账户内。实际上,那场会议中,除了他自己以外,其余与会人员全部是诈骗团队通过“AI换脸”和“AI换声”伪造的。这起案件充分暴露了AI诈骗的现实威胁,也警示我们,传统的防范意识已不再适用。
近年来,通过AI实现的声音和画面深度伪造技术门槛不断降低,过去诸如影视大片中才能出现的场景,如今只需要在互联网上花费数元购买一个软件就能一键生成。这种技术门槛的降低,使得AI诈骗易于实施,也对传统防范手段提出了新的挑战。
然而,需要注意的是,即便AI技术门槛降低,但“变声换脸”的AI技术应用往往只是电信诈骗的最后一环。在实施诈骗之前,不法分子往往会进行精心策划,利用受害者的心理弱点和信息漏洞进行攻击。
例如,为了获取某个人的声音,不法分子甚至通过拨打骚扰电话进行采集,而后仅通过通话录音,就能伪造出对方的声音。此外,个人在社交平台上展示的影像资料,也让不法分子可以轻松获取个人肖像信息,为“AI换脸”提供素材。
因此,防范AI诈骗需要从源头上入手,除了提升个人防范意识外,还需要加强对个人信息保护的重视,防止个人信息泄露成为诈骗分子实施犯罪的土壤。同时,科技界也应积极研发并推广数字水印等鉴伪技术,使其帮助检测和揭露被AI篡改的内容,降低AI诈骗的成功率。
对于重要应用场景中的人脸识别技术,应修补漏洞,防范手机摄像头权限被恶意利用,以技术反制不法行为,将群众与电诈风险进行“无感”隔离。只有多管齐下,才能有效应对AI诈骗带来的挑战,维护网络安全和社会稳定。