我的数据安不安全

这页先不替任何厂商打包票。 它要做的,是把“数据安全”拆成几个你今天就能判断、就能落地的动作。

一句话定位

真正要问的不是“AI 安不安全”,而是:我现在走的是哪种账号形态、我喂进去的是什么数据、这些数据会不会出网、会不会留存、会不会被训练、出了事我能不能立刻收口。


先把最短结论说掉

  • 如果你用的是 Anthropic 的 Team / Enterprise / API 这类商业条款:官方公开文档明确说,商业用户数据默认不用于训练,标准保留是 30 天,Enterprise 还可走 ZDR
  • 如果你用的是 Anthropic 的 Free / Pro / Max:不是同一回事。官方文档写得很清楚,消费者账号是否用于模型改进,取决于你的隐私设置。
  • 如果你用的是 OpenAI 的 Business / Enterprise / API:OpenAI 官方公开页明确写了,组织数据默认不用于训练,并提供保留控制、合规与数据驻留选项。
  • 如果你想问“我能不能让 Claude 只读某个文件夹、但完全不发网”:文件边界可以收紧,完全不发网不行。因为模型调用本身就要走网络。
  • 如果你处理的是员工个人信息、客户资料、合同、财务、医疗或未公开业务数据:先按“这是合规问题,不是提示词问题”来处理。

按 2026-04-20 查到的官方口径,先做一眼对比

厂商 / 路线官方公开文档对“训练”的明确度留存 / 控制我现在会怎么理解
Anthropic 商业条款明确。Claude Code 文档与帮助中心都写了:Team / Enterprise / API / 商业第三方平台下,默认不拿商业数据训练,除非组织明确 opt-in标准 30 天;Enterprise 可开 ZDR;Enterprise 还有审计、管理设置、保留控制可以作为企业路线起点,但要分清你是不是商业条款,不要把个人 Pro 当企业版
OpenAI Business / Enterprise / API明确。OpenAI 官方 business-data 页写明:组织数据默认不用于训练有保留控制;合资格组织可配 ZDR;有数据驻留与区域处理选项企业可谈,但它仍是境外厂商路线,数据出境与采购审查要按你公司制度走
MiniMax 公共文档不够明确。我查到的公开隐私政策和 API FAQ 讲了数据收集、保留、访问权和 key 泄露,但没找到一条和 Anthropic / OpenAI 同等直白的“商业数据默认不训练”承诺隐私政策写“按实现目的所需或法律允许范围保留”;FAQ 写了 API key 泄露会自动禁用一部分公开暴露的 key先归为“需合同确认”,不要因为是国内 / 近国内路线就自动脑补成“默认可放心上传员工数据”

这里有一个很重要的工程判断:

文档写得越明确,你越能拿它去和老板、法务、IT、安全团队对齐。 文档写不明白的厂商,不代表一定不安全,但意味着你不能替它补承诺。


五个必答

1. 我贴进去的员工数据,会不会被训练?

Anthropic / Claude Code,要先把账号形态分开:

  • Free / Pro / Max:Claude Code 官方数据使用页写明,消费者账号是否用于改进未来模型,取决于你的隐私设置。
  • Team / Enterprise / API / 商业第三方平台:同一页和 Anthropic 帮助中心都写明,商业条款下默认不训练,除非组织明确 opt-in 参与数据改进项目。

所以更准确的问法不是:

“我在用 Claude,会不会训练?”

而是:

“我现在到底用的是消费者条款,还是商业条款?”

OpenAI,你也要问同样的问题。OpenAI 的 business-data 官方页写的是 Business / Enterprise / API 这类组织路线的数据默认不训练;不要把这个结论直接套到个人聊天账号上。

MiniMax,基于我这次查到的公开文档,我不能替它下“默认不训练”的硬结论。更稳的做法是:

  • 先看你们实际签的是什么服务协议;
  • 没有合同或条款确认前,不要直接上可识别员工数据;
  • 先用脱敏版、区间值、摘要版材料跑。

2. 数据出境问题(国内企业)怎么办?

这件事最实用的判断是:

只要你在用境外厂商托管的 SaaS / API,就应该先按“数据会经过境外服务”来理解。

Anthropic 的 Claude Code 数据使用页写明,用户 prompt 和模型输出会通过网络发送到 Anthropic 服务。
OpenAI 的 business-data 页则说明了它为企业提供的数据驻留与区域处理能力,但这仍然是需要采购、法务和安全团队一起判断的企业能力,不是“开箱就自动满足国内公司所有要求”。

所以:

  • 公开材料 / 低敏内部文档:通常可以先小范围试。
  • 员工个人信息 / 客户资料 / 合同 / 财务 / 医疗 / 未公开业务数据:不要靠感觉,先问内部规则。
  • 公司明确要求不出境:不要硬走海外托管 SaaS,优先考虑国内厂商路线或自部署路线。

这里我明确做一个推断

对中国境内企业,如果你的底线是“敏感业务数据原则上不出境”,那你就不该把 Anthropic / OpenAI 这类海外托管服务当成默认起手式。

3. 公司合规能不能跑通?

能,但不是“每个人拿个人订阅号自己试”那种跑通。

Anthropic,公开文档至少给了这些企业控制信号:

  • 商业条款和消费者条款分开;
  • 商业客户是数据 controller,Anthropic 是 processor;
  • 商业客户可以访问 / 导出团队数据;
  • Enterprise 有审计日志、组织管理、保留控制;
  • Claude Code on Enterprise 可申请 ZDR。

OpenAI,公开 business-data 页给了这些信号:

  • Business / Enterprise / API 数据默认不训练;
  • 有 MFA、SSO、RBAC、项目与访问控制;
  • 有 Audit Logs API;
  • 有保留控制、数据驻留和区域处理。

所以企业真正要问的不是“能不能”,而是“我要按哪一级走”:

  • 个人试用级:只跑公开或低敏材料。
  • 团队内部级:走商业账号或 API,先把权限、日志、密钥管理配起来。
  • 敏感业务级:看 Enterprise / ZDR / 统一采购 / 审计。
  • 强监管级:法务、安全、采购一起看,不自己拍脑袋。

4. 我能不能让 Claude 只读某个文件夹,绝不发网?

这句话要拆开:

“只读某个文件夹”:大体可以。
Claude Code 有权限模式,也有 sandboxing 这层操作系统级隔离。你可以:

  • 把工作区单独切出来;
  • 把 secrets 挪出工作区;
  • 用 sandbox 限读写范围;
  • 用 deny 规则把不该碰的路径封掉。

“绝不发网”:如果你说的是“Claude 还能正常推理回答我,但任何数据都不经过网络”,那就不是 Claude Code 的路子。
官方文档已经说了:模型调用本身要走网络。

所以更准确的说法是:

  • 你可以让 Claude 只动某个目录
  • 你可以让它少访问不必要的域名
  • 你甚至可以把非必要遥测关掉;
  • 但如果你的要求是 “推理也不能出网”,那就该换成本地模型 / 自部署路线。

5. API key 泄漏怎么办?

先做最小动作,不要先开会:

  1. 立刻 revoke / delete 旧 key
  2. 立刻创建新 key
  3. 把新 key 同步替换到本地 .env、服务器环境变量、CI/CD secrets
  4. 检查近期开销、调用日志、异常项目
  5. 把泄漏源清掉:代码、截图、聊天记录、文档附件、错误日志一起看

三家里,这次查到的官方公开动作是:

  • Anthropic:帮助中心明确写了,怀疑 key 泄漏就立刻去 Claude Console 的 API Keys 页面删除,并创建新 key;最佳实践页还建议分环境分 key、定期轮换、启用 secret scanning。
  • OpenAI:帮助中心有明确的“删除 API key”文档;最佳实践页强调不要共享 key、不要放前端、不要提交到仓库、优先用环境变量。
  • MiniMax:API FAQ 明确写了,不要公开暴露 key,若公开泄漏,平台可能自动禁用该 key。

更具体的安全实践,直接看 API Key 的安全管理


最小安全搭法

如果你现在只是想“别第一天就踩大坑”,先做这 6 步:

第 1 步:先用低敏材料跑通

第一次不要上员工表、客户名单、合同和财务。
先拿这些试:

  • 已公开网页和 PDF
  • 你自己写过的非敏感文档
  • 已脱敏样本
  • 已公开制度说明

第 2 步:公司数据别直接走个人订阅

如果你知道自己接下来会碰公司文件:

  • 优先看 Team / Enterprise / API 这类商业条款;
  • 对数据要求更高的,再看 ZDR
  • 公司已有云采购体系的,看能否走 Bedrock / Vertex 这类企业采购路径。

第 3 步:把密钥和工作区分开

至少做到:

  1. 真正的 .env 不进 git
  2. secrets 尽量放工作区外
  3. 文件权限收紧,比如 chmod 600

第 4 步:给 Claude 先画笼子

  • 用单独项目目录开 Claude
  • sandboxing
  • 把 secrets 路径加 deny
  • 只给必要域名联网

第 5 步:把非必要流量关掉

如果你们团队对遥测更敏感,至少知道这些开关存在:

  • DISABLE_TELEMETRY
  • DISABLE_ERROR_REPORTING
  • DISABLE_FEEDBACK_COMMAND
  • CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC

第 6 步:别忘了本机也会留痕

很多人只盯着“厂商会不会留”,忘了你自己电脑也会留
Claude Code 官方文档明确写了本地缓存默认会保留一段时间。共享机器、录屏机器或高敏机器上,更要注意本地清理。


常见坑

坑 1:把“我订了 Pro”理解成“企业可用”

不是。个人订阅和商业条款,不是同一件事。

坑 2:把“不训练”理解成“完全不留”

不是。训练、保留、本地缓存、反馈上传,是四件不同的事。

坑 3:把“开了 sandbox”理解成“不会出网”

不是。sandbox 解决的是边界,不是把模型调用变成本地离线。

坑 4:把最敏感的数据拿来做第一次 demo

这是最常见也最没必要的失误。先低敏跑通,再逐级升级。

坑 5:把 .env 放在仓库里,还让 Claude 顺手能读

这不是高级安全问题,这是基本卫生问题。

坑 6:把“国内厂商”自动等同于“自动合规”

也不是。国内路线通常更容易解释“数据不出境”,但是否真的满足你公司的制度,仍然要看厂商条款、日志策略、采购方式和你们自己的规则。


什么时候不要直接上

下面这些场景,不建议你自己先拍板:

  • 员工真实身份、绩效、薪酬、健康、婚育、政治等个人敏感信息
  • 客户名单、合同正文、未公开财务数据
  • 医疗、金融、政企、教育等强监管场景
  • 公司已经明确有“不得使用外部托管 AI 服务处理此类数据”的制度

这时候更稳的路子通常是:

  1. 先脱敏
  2. 先摘要
  3. 先结构化后再送模型
  4. 或改走国内 / 自部署路线

关联


官方来源(按 2026-04-20 查到)

  • Anthropic Claude Code Data usage
  • Anthropic Claude Code Zero data retention
  • Anthropic Help Center Does Anthropic act as a Data Processor or Controller?
  • Anthropic Help Center What should I do if I suspect my API key has been compromised?
  • Anthropic Help Center API Key Best Practices
  • OpenAI Business data privacy, security, and compliance
  • OpenAI Help Center How can I delete my API key?
  • OpenAI Help Center Best Practices for API Key Safety
  • MiniMax Privacy Policy
  • MiniMax API Docs About APIs

这页给的是判断框架和最小动作,不是法律意见。涉及员工个人信息、客户数据、医疗数据、财务数据和未公开业务信息时,最终以你公司的法务 / 安全 / 采购要求为准。