8 月 18 日消息,据央视网报道,AI 换脸诈骗检测与预警技术正在测试中。
工信部:将推出 AI 换脸诈骗风险提醒功能,仅在手机端本地运行
工业和信息化部反诈工作专班专家李坤表示:“我们正在会同行业内的手机终端企业,将推出 AI 换脸诈骗风险提醒功能,这项功能仅在手机端来本地运行,能够有效保护用户数据不泄露。经过用户授权后,可为用户提供 AI 换脸诈骗风险预警提醒。”
AI 换脸技术近年来发展迅速,其应用范围也越来越广,但也带来了一定的安全风险,尤其是被不法分子利用进行诈骗。
为了有效防范 AI 换脸诈骗,工信部正在推动相关技术的发展。李坤介绍,该技术在手机端本地运行,可以避免用户数据泄露,提高安全性。此外,该技术还能够通过图像扫描技术识别 AI 换脸,为用户提供及时的风险预警提醒。
当用 AI 换了脸的技术人员与记者发起视频通话时,测试手机终端提示“对方疑似假冒身份”。点击检测按钮,经过图像扫描,系统提示“AI 换脸合成概率 93%”。
了解到,AI 换脸主要是使用深度合成技术。《互联网信息服务深度合成管理规定》提出了算法备案、安全评估的手段,要求深度合成服务提供者对深度合成的内容添加显式或隐式水印。
中国信通院人工智能所安全与元宇宙部专家陈文弢称:“要对生成合成的内容去添加一些水印,这个水印的本质其实就是要一方面去提示公众这个内容是由 AI 生成或者合成的,另一方面也是要追溯它的来源。”
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。