Copilot擅自读取并总结公司机密邮件,微软回应:系Bug,非故意行为

Microsoft 365 Copilot被曝存在漏洞,可未经授权读取并总结用户标记为“机密”的邮件,绕过DLP策略。该问题源于代码错误,Copilot错误处理了已发送和草稿文件夹中的机密信息。微软已于2月初开始部署配置更新,并强调此漏洞未导致信息泄露给无权访问者,仅是Copilot行为不符设计预期。

       <p>Rain科技2月24日消息,微软近期确认,其AI助手Microsoft 365 Copilot存在一个安全漏洞。自今年1月下旬以来,该AI助手在特定情况下,会未经授权读取并总结用户标记为“机密”的邮件,从而绕过了企业为保护敏感信息而设置的数据防泄漏(DLP)策略。</p>

根据BleepingComputer的报道,这一问题最早于1月21日被发现,主要影响Copilot工作标签页中的聊天功能。

该漏洞的具体表现是:即使邮件本身已应用了敏感度标签,并且企业配置了DLP策略来限制自动化工具的访问,Copilot仍然会错误地处理包含这些机密信息的邮件,包括已发送邮件和草稿文件夹中的内容。

**客观分析:** 这一漏洞的出现,凸显了在AI与企业数据深度融合过程中所面临的挑战。企业部署DLP策略的初衷是确保敏感数据不被非授权访问或泄露,而Copilot绕过这些策略的行为,无疑会引发企业对数据安全和合规性的担忧。虽然微软强调此举并非故意泄露数据给无权访问的用户,而是Copilot的代码逻辑未按预期“排除受保护内容”,但这仍然暴露了AI工具在理解和执行企业安全规则时的局限性。

深度考量: 此类漏洞的发现,对于企业而言是一个重要的警示。在引入AI助手时,不能仅仅关注其带来的效率提升,更要审慎评估其潜在的安全风险。企业需要与AI服务提供商紧密合作,确保AI工具能够完全理解并遵守企业内部的数据安全策略,特别是针对“机密”等敏感信息的处理。同时,企业也应加强对AI助手行为的监控和审计,以便及时发现并应对可能出现的安全隐患。

微软应对: 微软方面已于2月初开始在全球范围内为企业客户部署相关的配置更新,并表示将持续密切监测修复效果,以确保漏洞得到彻底解决。这一快速的响应速度,表明了微软对解决此类安全问题的重视。

Copilot未授权下读取总结机密邮件!微软:是Bug不是故意

  </div>
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
Rain科技Rain科技
上一篇 2026年 2月 24日 上午9:24
下一篇 2026年 2月 24日 上午11:26

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!