<p>Rain科技2月24日消息,微软近期确认,其AI助手Microsoft 365 Copilot存在一个安全漏洞。自今年1月下旬以来,该AI助手在特定情况下,会未经授权读取并总结用户标记为“机密”的邮件,从而绕过了企业为保护敏感信息而设置的数据防泄漏(DLP)策略。</p>
根据BleepingComputer的报道,这一问题最早于1月21日被发现,主要影响Copilot工作标签页中的聊天功能。
该漏洞的具体表现是:即使邮件本身已应用了敏感度标签,并且企业配置了DLP策略来限制自动化工具的访问,Copilot仍然会错误地处理包含这些机密信息的邮件,包括已发送邮件和草稿文件夹中的内容。
**客观分析:** 这一漏洞的出现,凸显了在AI与企业数据深度融合过程中所面临的挑战。企业部署DLP策略的初衷是确保敏感数据不被非授权访问或泄露,而Copilot绕过这些策略的行为,无疑会引发企业对数据安全和合规性的担忧。虽然微软强调此举并非故意泄露数据给无权访问的用户,而是Copilot的代码逻辑未按预期“排除受保护内容”,但这仍然暴露了AI工具在理解和执行企业安全规则时的局限性。
深度考量: 此类漏洞的发现,对于企业而言是一个重要的警示。在引入AI助手时,不能仅仅关注其带来的效率提升,更要审慎评估其潜在的安全风险。企业需要与AI服务提供商紧密合作,确保AI工具能够完全理解并遵守企业内部的数据安全策略,特别是针对“机密”等敏感信息的处理。同时,企业也应加强对AI助手行为的监控和审计,以便及时发现并应对可能出现的安全隐患。
微软应对: 微软方面已于2月初开始在全球范围内为企业客户部署相关的配置更新,并表示将持续密切监测修复效果,以确保漏洞得到彻底解决。这一快速的响应速度,表明了微软对解决此类安全问题的重视。
</div>