你必须知道的Copilot for Microsoft 365数据安全、隐私和安全性的若干问题

在当今的信息时代,Microsoft每天都要处理大量的数据和文档,无论是在工作、学习还是生活中。Microsoft需要在有限的时间和资源内,完成各种各样的任务,如写报告、做演示、发邮件、查资料等。有时候,Microsoft可能会感到压力、困惑或者无聊,Microsoft希望有一种工具,可以帮助Microsoft更高效、更智能、更有趣地完成这些任务。Copilot for Microsoft 365就是这样一种工具,它是一种基于人工智能的智能助理,可以帮助你在Microsoft 365应用中快速完成各种任务,如写作、搜索、分析、设计等。

为了在企业环境中,能够安全、高效、顺畅地使用Copilot for Microsoft 365这种先进的人工智能助理,来提升Microsoft的工作效率和质量,Microsoft可能需要做一些技术上的准备工作,以确保Copilot for Microsoft 365能够与Microsoft的Microsoft 365应用无缝集成。

clip_image002

在将 AI 工具引入组织时,安全性(尤其是数据保护)是最令人担忧的问题。针对 AI 的安全建议基于零信任。 作为安全性领域的领导者,Microsoft 为零信任提供了实际路线图和明确的指导。 通过在引入 AI 工具和助手时实施建议的保护,可以构建零信任安全的基础。您需要知道:

Copilot for Microsoft 365 如何使用专有组织数据?

Copilot for Microsoft 365 通过联系 LLM 与组织数据来提供价值。Copilot for Microsoft 365 通过 Microsoft Graph 访问内容和上下文。 它可以基于客户业务内容(例如用户文档、电子邮件、日历、聊天、会议、联系人和其他业务数据)生产响应。 Copilot for Microsoft 365 将此内容与用户的工作上下文联系起来,例如用户现在参加的会议、用户对某个主题的电子邮件交流,或用户上周的聊天对话。 Copilot for Microsoft 365 将此内容和上下文联系起来,以帮助提供准确、相关和符合上下文的回复。

clip_image004

通过 Microsoft Graph 访问的提示、回复和数据不用于训练基础 LLM,包括Copilot for Microsoft 365 使用的 LLM。

Copilot for Microsoft 365 仅显示单个用户至少具有查看权限的组织数据。请务必使用 Microsoft 365 服务(例如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组有权访问组织内的相应内容。 这包括通过租户间协作解决方案(如 Microsoft Teams 中的共享频道)向组织外部的用户授予的权限。

使用Copilot for Microsoft 365 输入提示时,提示中包含的信息、它们检索的数据以及生成的回复仍在 Microsoft 365 服务边界内,以符合Microsoft当前的隐私、安全性和合规性承诺。 Copilot for Microsoft 365 使用 Azure OpenAI 服务进行处理,而不是使用 OpenAI 的公开服务。Azure OpenAI 不会缓存客户内容,并且 Copilot 修改了适用于 Microsoft 365 的 Copilot 的提示。

对Copilot for Microsoft 365 的滥用监视是实时进行的,无需向 Microsoft 提供对客户数据的任何长期访问权限,无论是人工还是自动审查。虽然滥用审查(包括对内容进行人工审查)在 Azure OpenAI 中可用,但Copilot for Microsoft 365 服务已选择退出。 Azure OpenAI 不会收集或存储 Microsoft 365 数据。

存储的有关用户与Copilot for Microsoft 365 交互的数据

当用户与Copilot for Microsoft 365 应用 (使用 Word、PowerPoint、Excel、OneNote、Loop 或 Whiteboard 等) 交互时,Microsoft会存储有关这些交互的数据。 存储的数据包括用户的提示和 Copilot 的回复,包括对用于支持 Copilot 回复的任何信息的引用。 Microsoft将用户的提示和 Copilot 对此提示的回复称为“交互内容”,这些交互的记录是用户的 Copilot 交互历史记录。 例如,此存储的数据为用户提供 Microsoft Copilot 中的 Copilot 交互历史记录,其中包含基于 Graph 的聊天 和 Microsoft Teams 中的会议。 此数据的处理和存储方式与组织在 Microsoft 365 中的其他内容的合同承诺保持一致。 数据会在存储时加密,且不会用于训练基础 LLM,包括Copilot for Microsoft 365 使用的基础 LLM。

若要查看和管理此存储数据,管理员可以使用内容搜索或 Microsoft Purview。 管理员还可以使用 Microsoft Purview 为与 Copilot 的聊天交互相关的数据设置保留策略。

删除用户与Copilot for Microsoft 365 交互的历史记录

用户可以通过转到“我的帐户”门户 删除其 Copilot 交互历史记录(包括其提示和 Copilot 返回的回复)。 有关详细信息,请参阅 删除 Microsoft Copilot 交互历史记录

Copilot for Microsoft 365 和欧盟数据边界

Copilot for Microsoft 365 对 LLM 的调用会路由到区域最近的数据中心,但也可以调用到利用率高峰期间有可用容量的其他区域。

对于欧盟 (EU) 用户,Microsoft有其他安全措施来遵守欧盟数据边界。 欧盟流量保留在欧盟数据范围内,而全球流量可以发送到欧盟和其他国家或地区进行 LLM 处理。

Copilot for Microsoft 365 和数据驻留

适用于 Microsoft 365 的 Copilot 正在遵守 Microsoft 产品条款和数据保护附录中所述的数据驻留承诺。适用于 Microsoft 365 的 Copilot 已于 2024 年 3 月 1 日添加为 Microsoft 产品条款中的数据驻留承诺中涵盖的工作负载。

Microsoft 高级数据驻留 (ADR) 和多地理位置功能产品/服务包括截至 2024 年 3 月 1 日适用于 Microsoft 365 的 Copilot客户的数据驻留承诺。 对于欧盟客户,适用于 Microsoft 365 的 Copilot 是欧盟数据边界服务。 欧盟以外的客户可能会在美国、欧盟或其他区域处理其查询。

Copilot for Microsoft 365 的可扩展性

虽然Copilot for Microsoft 365 已能够在 Microsoft 365 生态系统中使用应用和数据,但许多组织仍依赖各种外部工具和服务进行工作管理和协作。 Copilot for Microsoft 365 体验可以通过使用 Microsoft Graph 连接器或插件在响应用户请求时引用第三方工具和服务。 如果用户有权访问该信息,则可以在Copilot for Microsoft 365 中返回来自 Graph 连接器的数据。

启用插件后,Copilot for Microsoft 365 确定是否需要使用特定插件来帮助向用户提供相关回复。 如果需要插件,Copilot for Microsoft 365 将生成一个搜索查询,以代表用户发送到该插件。 查询基于用户的提示、Copilot 交互历史记录以及用户在 Microsoft 365 中有权访问的数据。

在 Microsoft 365 管理中心的 集成应用部分中,管理员可以查看插件所需的权限和数据访问权限,以及插件的使用条款和隐私声明。 管理员可以完全控制以选择允许在其组织中使用的插件。 用户只能访问其管理员允许的插件以及用户安装或分配的插件。 Copilot for Microsoft 365 仅使用用户启用的插件。

Copilot for Microsoft 365 如何保护组织数据?

Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 Copilot for Microsoft 365 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 语义索引支持基于用户身份的访问范围,以便“Grounding”进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档。

image

如果数据由 Microsoft Purview 信息保护加密,则Copilot for Microsoft 365 将遵守授予用户的使用权限。可以通过 敏感度标签 应用此加密,也可以通过使用信息权限管理 (IRM) 在 Microsoft 365 中的应用中使用受限权限来应用此加密。 有关将 Microsoft Purview 与Copilot for Microsoft 365 配合使用的详细信息,请参阅 生成式 AI 应用的 Microsoft Purview 数据安全和合规性保护。

Microsoft已实施多种形式的保护,以帮助防止客户损害 Microsoft 365 服务和应用程序,或获取对其他租户或 Microsoft 365 系统自身的未经授权的访问权限。 下面是各种保护形式的一些示例:

  • Microsoft 365 服务每个租户中的客户内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。
  • Microsoft 使用严格的物理安全性、后台屏蔽和多层加密策略来保护客户内容的机密性和完整性。
  • Microsoft 365 使用服务端技术来加密静态和传输中的客户内容,包括 BitLocker、按文件加密、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。
  • Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。
  • 对于通过Copilot for Microsoft 365 插件访问的内容,加密可以排除编程访问,从而限制插件访问内容。

满足法规合规性要求

随着 AI 领域法规的发展,Microsoft 将继续满足和适应足未来法规的要求。

Copilot for Microsoft 365 基于 Microsoft 当前对企业中数据安全和隐私的承诺。 这些承诺始终如一。 Copilot for Microsoft 365 已集成到 Microsoft 365 中,并遵守对 Microsoft 365 商业客户的所有现有隐私、安全和合规性承诺。有关详细信息,请参阅 Microsoft 合规性

除了遵守法规之外,Microsoft还优先与客户、合作伙伴和监管机构建立开放对话,以便更好地了解和解决问题,从而形成信任和合作的环境。 Microsoft承认在 Microsoft AI 驱动的环境下,隐私性、安全性和透明度不仅仅是其特征,而是先决条件。

Copilot for Microsoft 365 和连接体验的策略设置

如果关闭用于分析组织中 Windows 或 Mac 设备上 Microsoft 365 应用版内容的连接体验,则以下应用中的用户将无法使用Copilot for Microsoft 365 功能:Excel、PowerPoint、OneNote、Word

同样,如果关闭 Microsoft 365 应用版的连接体验,则 Windows 或 Mac 设备上这些应用中的Copilot for Microsoft 365 功能将不可用。

clip_image008

关于Copilot for Microsoft 365 创建的内容

使用生成性 AI 产生的响应,并不能保证 100% 的事实性。 尽管Microsoft不断改进响应,但用户仍应在发送输出内容给其他人之前通过判断来检查。 Microsoft的Copilot for Microsoft 365 功能提供有用的草稿和摘要,可帮助你实现更多目标,同时让你有机会查看生成的 AI,而不是将这些任务完全自动化。

Microsoft将继续改进算法,努力解决诸如错误信息和虚假信息、内容拦截、数据安全等问题,并根据Microsoft负责任的 AI 原则防止推广有害或歧视性的内容等问题。

Microsoft 不声明服务输出的所有权。也就是说,Microsoft不会确定客户的输出是否受版权保护或可对其他用户强制执行。 这是因为生成式 AI 系统可能会对多个客户的类似提示或查询生成类似的响应。 因此,多个客户可能拥有或声称拥有相同或基本相似的内容的权利。

如果第三方起诉商业客户使用 Microsoft Copilots 或其生成的输出侵犯版权,Microsoft将为客户辩护,并支付诉讼导致的任何不利判决或和解金额,只要客户使用Microsoft内置于产品中的防护措施和内容筛选器。 有关详细信息,请参阅 Microsoft 宣布面向客户的新 Copilot 版权承诺

Copilot 如何阻止有害内容?

Azure OpenAI 服务包括与核心模型一起使用的内容筛选系统。针对“恶意与公平”、“性”、“暴力”和“自残”类别的内容筛选模型经过了专门的培训,并以各种语言进行了测试。 此系统的工作原理是通过分类模型运行输入提示和响应,这些模型旨在标识和阻止有害内容的输出。

与仇恨和公平相关的伤害是指任何基于种族、民族、国籍、性别认同和表达、性取向、宗教、移民身份、能力状况、个人外貌和体型等属性使用贬义或歧视性语言的内容。公平性是指确保 AI 系统公平地对待所有人群,而不会助长现有的社会不公平现象。 性内容涉及对人体生殖器官、恋爱关系、色情或亲昵行为、怀孕、身体性行为(包括攻击或强迫性暴力行为)、卖淫、色情和虐待的讨论。暴力描述与旨在伤害或杀害的身体行为有关的语言,包括行动、武器和相关实体。 自残语言是指故意伤害或杀害自己的行为。

clip_image010

Copilot 是否提供受保护的材料检测?

是的,适用于 Microsoft 365 的 Copilot 可检测受保护的材料,其中包括受版权约束的文本和受许可限制的代码。 并非所有这些缓解措施都适用于所有适用于 Microsoft 365 的 Copilot 应用场景。

致力于负责任的 AI

正当 AI 改变Microsoft生活的时候,Microsoft必须为这项技术的使用和影响共同定义新规则、规范和实践。自 2017 年以来,Microsoft 一直在开拓负责任的 AI 之旅,当时Microsoft定义了Microsoft的原则和方法,以确保以人为本的道德原则驱动这项技术使用。

在 Microsoft,Microsoft遵循 AI 原则负责任的 AI 标准,以及数十年的 AI、Grounding 和隐私保护机器学习研究。 由研究人员、工程师和策略专家组成的多学科团队审查 AI 系统的潜在危害和缓解措施 – 优化培训数据、筛选以限制有害内容、查询和结果拦截敏感主题,以及应用 Microsoft 技术(例如 InterpretMLFairlearn)以帮助检测和纠正数据偏差。 Microsoft通过指出局限性、链接来源以及提示用户审查、事实核查和根据主题专业知识调整内容,来明确系统如何做出决定。有关详细信息,请参阅 管理 AI:未来蓝图

Microsoft的目标是帮助Microsoft的客户负责任地使用 AI 产品,分享Microsoft的学习知识,并建立基于信任的合作关系。 对于这些新服务,Microsoft希望向客户提供有关 AI 平台服务的预期用途、功能和限制的信息,以便他们拥有做出负责任部署选择所需的知识。 Microsoft还与组织内部的开发人员以及独立软件供应商 (ISV) 共享资源和模板,以帮助他们构建有效、安全且透明的 AI 解决方案。

clip_image012


了解 365vCloud's Journey to the Cloud 的更多信息

订阅后即可通过电子邮件收到最新文章。