AI诈骗技术翻新,用科技反制不法

接到“弟弟”的借钱电话后转账数万元,被屏幕对面的“好友”骗走数百万元,“多人视频会议”中竟然只有自己是真人……近期,全国各地接连曝光多起电信诈骗案件,其共同特点是诈骗分子利用AI合成技术“换脸”“换声”,这种深度伪造导致受害者“耳听为虚”“眼见也非实”。

当前,诈骗分子得以构建复杂的虚拟场景,通过合成视频、音频增加诈骗的可信度,呈现出AI技术普及、应用多元、身份伪造具体化以及作案模式精准化等特点。这种趋势下,传统防范意识和方法已难以应对。

今年某地警方披露的一起案件令人瞠目结舌。一家跨国公司地方分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按要求先后转账多次,将2亿港元分15次转到5个账户内。实际上,那场会议中,除了他自己以外,其余与会人员全部是诈骗团队通过“AI换脸”和“AI换声”伪造的。这起案件充分暴露了AI诈骗的现实威胁,也警示我们,传统的防范意识已不再适用。

近年来,通过AI实现的声音和画面深度伪造技术门槛不断降低,过去诸如影视大片中才能出现的场景,如今只需要在互联网上花费数元购买一个软件就能一键生成。这种技术门槛的降低,使得AI诈骗易于实施,也对传统防范手段提出了新的挑战。

然而,需要注意的是,即便AI技术门槛降低,但“变声换脸”的AI技术应用往往只是电信诈骗的最后一环。在实施诈骗之前,不法分子往往会进行精心策划,利用受害者的心理弱点和信息漏洞进行攻击。

例如,为了获取某个人的声音,不法分子甚至通过拨打骚扰电话进行采集,而后仅通过通话录音,就能伪造出对方的声音。此外,个人在社交平台上展示的影像资料,也让不法分子可以轻松获取个人肖像信息,为“AI换脸”提供素材。

因此,防范AI诈骗需要从源头上入手,除了提升个人防范意识外,还需要加强对个人信息保护的重视,防止个人信息泄露成为诈骗分子实施犯罪的土壤。同时,科技界也应积极研发并推广数字水印等鉴伪技术,使其帮助检测和揭露被AI篡改的内容,降低AI诈骗的成功率。

对于重要应用场景中的人脸识别技术,应修补漏洞,防范手机摄像头权限被恶意利用,以技术反制不法行为,将群众与电诈风险进行“无感”隔离。只有多管齐下,才能有效应对AI诈骗带来的挑战,维护网络安全和社会稳定。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 7月 30日 上午9:48
    下一篇 2024年 7月 30日 上午10:12

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!