近日,浙江省杭州市公安机关侦破一起利用人工智能(AI)技术伪造活体视频,突破部分网络平台登录认证,窃取用户信息的案件。该事件引发了公众对 AI 技术使用安全问题的广泛关注。
近年来,人工智能技术飞速发展,其强大的数据处理能力和模拟学习能力正在深刻影响着社会生活的方方面面。然而,AI 技术的快速发展也给个人信息保护、网络安全治理带来了新的挑战。本次案件中,不法分子利用 AI 大模型将静态照片生成逼真的活体视频,该视频能够模仿真人点头、眨眼等动作,从而绕过部分网络平台的人脸登录认证,进而窃取用户信息并进行非法牟利。这类行为不仅侵犯了用户的个人信息权益,更对整个网络安全造成了严重威胁。
这仅仅是 AI 技术被滥用的一个典型案例。从之前的 AI “换脸”、 “拟声”诈骗案件,到利用 AI 技术合成虚假新闻、制作虚假淫秽视频等事件,都表明 AI 技术具有“双刃剑”的特性。一方面,AI 技术可以帮助人们提升工作效率、改善服务体验;另一方面,不法分子也可能利用 AI 技术进行违法犯罪活动,给公众安全带来难以预料的风险。这一现象警示网络平台需要持续升级安全防护措施,有效拦截和反制各种利用技术手段实施的违法犯罪行为,同时也要与时俱进地完善法律体系,更好地规范和保障人工智能的健康发展。
值得注意的是,我国已经制定了《网络安全法》、《数据安全法》、《个人信息保护法》等法律法规,并在一定程度上涉及对人工智能的安全监管。此外,我国还出台了一些针对人工智能治理的部门规章。近期举办的 2024年国家网络安全宣传周上,相关部门发布了《人工智能安全治理框架》1.0 版。公安、网信等部门也对利用 AI 技术实施违法犯罪行为进行了有力打击,取得了一定成效。但对于 AI 技术潜在风险的防范和治理仍需长期努力。
总结来说,只有在鼓励人工智能创新发展的同时,依法防范和化解 AI 技术滥用带来的安全风险,让各方清楚了解并遵守使用 AI 技术的法律边界,才能让 AI 等新兴技术更好地服务经济社会发展,成为推动社会进步的积极力量。