← 返回

微软称Copilot存在漏洞 导致机密邮件被摘要

微软确认其Microsoft 365 Copilot工具自1月下旬起存在漏洞,导致AI助手绕过数据防泄漏政策,错误读取并摘要用户已发送邮件和草稿箱中的机密信息。

微软确认Copilot漏洞影响机密邮件安全

微软公司近日发布服务警报,证实其Microsoft 365 Copilot工具存在系统漏洞,自2026年1月21日首次发现以来,该漏洞导致AI助手错误读取并摘要用户已发送邮件和草稿箱中的内容,包括带有保密标签的邮件。据BleepingComputer报道,该漏洞(编号CW1226324)影响Copilot的“工作聊天”功能,该功能通过智能交互帮助用户处理文档和邮件。

功能背景

Copilot Chat是微软为Microsoft 365用户提供的AI驱动聊天工具,支持在Word、Excel、PowerPoint、Outlook和OneNote中部署。自2025年9月起,微软已逐步向付费商业用户提供该功能。此次漏洞可能削弱企业对数据防泄漏(DLP)政策的信任,引发对AI工具安全性的进一步审查。

编辑点评

此次微软AI助手漏洞事件凸显了人工智能技术在企业场景中应用的安全隐患。全球数百万企业用户依赖Microsoft 365处理敏感数据,而Copilot作为其核心生产力工具,若存在系统级漏洞可能引发连锁反应。国际社会或将借此事件重新审视AI技术的监管框架,尤其是跨国企业数据处理合规性问题。从长远看,此类事件可能加速各国对AI伦理与数据保护立法的进程,同时影响微软在企业AI市场的战略部署。此外,该漏洞暴露时间点(正值全球网络安全意识提升期)可能加剧公众对企业数据安全的担忧,促使微软加快技术修复与信任重建。

相关消息:https://it.slashdot.org/story/26/02/18/1728219/microsoft-says-bug-causes-copilot-to-summarize-confidential-emails?utm_source=rss1.0mainlinkanon&utm_medium=feed