一句话定义

MCPModel Context Protocol 的缩写,一套让 AI 助手用统一方式连接外部工具和数据源的开放协议。

人话版:以前你想让 AI 读 Slack、Notion、数据库,要分别做一堆私有接入;有了 MCP,只要对方实现了 MCP server,AI 就能按同一套接口去连。

为什么重要 / 什么场景会听到

它重要,是因为“AI 能力”不再只等于模型本身,还取决于它能接上哪些系统。

常见场景:

  1. 读公司内部系统,如 Slack、Jira、Notion。
  2. 查数据库,如 BigQuery、Postgres。
  3. 读监控和告警,如 Sentry、Datadog。
  4. 把你自己的内部服务暴露给 AI 用。

技术机制

官方 claude-code-docs/mcp.md 的描述:

“MCP is an open standard that enables AI assistants to connect to data sources and tools.”

它解决的问题可以直接看成一张对照表:

没 MCP有 MCP
每对“AI × 工具”要单独集成工具实现一次 server,所有 AI 都能连
集成是私有实现,换 AI 就作废协议开放,一处写处处通
非程序员没法自己加工具社群 MCP server 越来越多,装一下就能用

最小配置长这样:

{
  "mcpServers": {
    "slack": {
      "type": "http",
      "url": "https://slack.mcp.anthropic.com/mcp"
    },
    "github": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"]
    }
  }
}

Boris 团队把 .mcp.json 提交进 git,全团队共享同一套工具集:

“Claude Code uses all of Boris’s tools autonomously: searches and posts to Slack, runs BigQuery queries, grabs error logs from Sentry.”

最小可跑通例子

.mcp.json 是最常见入口。一个项目只要声明 mcpServers,Claude Code 就知道有哪些外部工具可连。

最小理解方式:

  • type: "http" 表示连一个远程 MCP 服务
  • command + args 表示本地起一个 MCP server 进程
  • 把配置放进项目里,就能让团队共享同一套工具接入

常见误解 / 陷阱

  • 误解一:MCP 等于 skill。不是,skill 是“我会什么”,MCP 是“我能连什么”。
  • 误解二:MCP server 越多越好。不是,服务器一多,上下文、权限和调试复杂度都会上升。
  • 误解三:MCP 是静态能力。不是,server 挂了、权限没配好、网络不可用时,这条能力就会失效。
  • 误解四:只有大厂服务值得接。不是,最被低估的用途恰恰是连你自己的系统。

与其他术语的关系

  • [[agent]]:agent 可以调用 MCP 暴露出来的工具。
  • [[skill]]:skill 负责本地可复用能力,MCP 负责外部连接。
  • [[workflow]]:workflow 里常把 MCP 当成“取外部数据 / 调外部动作”的一步。
  • [[subagent]]:subagent 也可以在隔离上下文里调用 MCP 工具。
  • [[CLAUDE.md]]CLAUDE.md 负责项目规则,MCP 负责工具接入,两者互补。
  • [[RAG]]:两者都能让 AI 接入项目外信息,但 RAG 偏知识检索,MCP 偏协议化工具连接。
  • [[hook-slash-command]]:hook / slash command 是运行时触发机制,MCP 是被调用的外部能力层。
  • [[入门]]:第一次给项目接外部工具,可以从这里接到实操路径。

陈彬视角

MCP 最被低估的用法是”连自己的系统”——不只是连大厂服务。

被高估的部分:大多数人不需要那么多 MCP server。少即是多。

延伸阅读 / 官方链接


🎬 3 个场景(读者最可能用到的情境)

场景 1 · 接国内 IM(飞书 / 钉钉 / 企微)

团队在飞书沟通。接一个飞书 MCP server,让 AI 能读群里的需求讨论、搜历史消息、把结论发回群。比每次手动复制粘贴快得多。

场景 2 · 接金融数据源

散户让 AI 做盘后分析,需要个股实时行情、财报、研报。接一个东方财富 / 同花顺 MCP server(或社群实现),AI 就能在对话里直接拉数据,不用自己去抓 HTML。

场景 3 · 接 Notion / Obsidian 知识库

知识工作者的笔记在 Notion。接 Notion MCP server,AI 直接读指定页面、写入新页、按 tag 检索。把”私人知识库”和”AI 对话”打通。

⚖️ 和最像的邻居比

术语本质区别适用边界
MCPAI ↔ 外部系统的开放协议需要”标准化”接入多个工具/数据源
skill本地可复用的做法不需要连外部系统,纯流程封装
API单点调用接口没有统一上下文/权限/schema 描述
function callingLLM 私有的工具调用约定早期实现,各家不互通

🚫 反例(不该这么用)

反例 1 · 把 MCP 当通用 HTTP 客户端

“既然 MCP 能连东西,那我就用它发任意 HTTP 请求”。结果绕过了 MCP 的 schema / 权限 / 工具描述,反而比直接用 curl 复杂。正确做法:临时 HTTP 调用走 Bash/curl,只有”反复用、要标准化、要暴露给 AI 自主调用”的接口才值得做成 MCP server。

反例 2 · 以为每个工具都要装 MCP

办公流程里每个小功能都配一个 MCP server,结果装 15 个 server 拖慢启动、权限管理混乱、调试地狱。正确做法:先问”这是不是每天都用 / 值得被多个项目共享”,不是就用更轻的方式(skill / slash command / bash)。

❓ 常见误解

  • 误解 1:“MCP 只是 function calling 换个名字” → 实际:function calling 是单模型私有约定,MCP 是跨模型的开放协议,解决的是 M 个模型 × N 个工具的组合爆炸。
  • 误解 2:“MCP server 越多越强” → 实际:server 多了工具列表就膨胀,context 被挤占,权限边界也更难管;少而精更实用。
  • 误解 3:“MCP 是 Anthropic 的专有标准” → 实际:2025 年 OpenAI / Google / Zed 等陆续接入,已捐给 Linux Foundation 旗下 Agentic AI Foundation 成为产业公共协议。

🧬 历史坐标(最早谁提 · 本质 · 分型 · git)

最早谁提

2024 年 11 月 25 日 · Anthropic 发布 Model Context Protocol(作者 David Soria Parra、Justin Spahr-Summers)。官方发布页:https://www.anthropic.com/news/model-context-protocol

本质(一句话 · 20 字内)

AI 接工具/数据源的统一协议(解 M×N 问题)。

分型 / 演化(2-4 行主线)

  • 2023-03 · OpenAI Function Calling 让 LLM 第一次有”标准接工具”的形态,但私有协议
  • 2024-11 · Anthropic 发布 MCP,把”M 模型 × N 工具”组合爆炸收敛为”M + N”
  • 2025 · OpenAI、Google DeepMind、Zed、Sourcegraph 等陆续接入,社群 MCP server 千级规模
  • 2025-12 · Anthropic 把 MCP 捐给 Linux Foundation 旗下 Agentic AI Foundation,协议成为产业基建

代表 git / 文档