前言

干货来了!!敲黑板!!!MCP 2025最新最全说明手册,学习MCP这一篇文章就够了! 内容稍微有点儿长,大家耐心看完,收获必然大大地!

图片

NO.1 模型上下文协议(MCP)

什么是MCP?

打个比方,这就像是你只会英语,要获取只会说法语、德语等人的信息,你必须学习所有语言——这对你来说简直是噩梦。

图片

但如果有一个通晓所有语言的翻译呢?是不是简单多了?

图片

翻译就像MCP!它让智能体(Agents)通过单一接口与工具或其他能力进行交互。

具体来说,虽然LLM具备强大的知识和推理能力,但其知识仅限于初始训练数据。若需实时信息,必须自行调用外部工具。

模型上下文协议(MCP)是一种标准化接口和框架,使AI模型能够无缝连接外部工具、资源和环境。

图片

MCP就像USB-C标准统一电子设备连接一样,成为AI系统的通用连接器。

MCP为何诞生?

在MCP出现前,AI与外部数据的连接如同拼布娃娃般杂乱无章:

图片

  • 硬编码逻辑:每个工具需单独适配
  • Prompt链脆弱:依赖特定提示词组合
  • 厂商锁定:不同平台需重复开发插件

这导致了臭名昭著的M×N集成问题:假设有M个AI应用和N个工具,理论上需开发M×N种定制化集成方案。

图片

MCP通过引入中间标准层解决了这个问题:

  • M个AI应用

    只需实现一次客户端

  • N个工具

    只需实现一次服务端

  • 新增工具或模型时无需重写代码

图片

这种标准化就让跨平台协作变得像使用通用电源插头一样简单。

MCP架构概览

下面我们看下MCP的架构原理,如下图:

图片

  • 宿主(Host):是面向用户的 AI 应用,如聊天应用、AI 增强型 IDE 等。它发起与 MCP 服务器的连接,捕获用户输入,保留对话历史并显示模型回复。

图片

  • 客户端(Client):在宿主内,负责处理底层事务,像适配器或信使,负责按 MCP 协议执行宿主指令。

图片

  • 服务器(Server):是提供功能(工具等)的外部程序或服务,可本地或远程运行,关键是以标准格式告知能做什么,执行客户端请求并返回结果。

图片

MCP 基于客户端 - 服务器架构,主要有三个角色:工具、资源和提示

  • 工具(Tools) :是AI可调用的可执行动作或函数,通常由AI模型选择触发,常涉及文件 I/O 或网络调用等副作用或需额外计算的操作。

图片

例如:一个获取天气信息的简单工具,AI可通过调用该工具,传入地点参数,服务器执行后返回结果,客户端获取并供AI使用。

图片

  • 资源(Resources) :为AI提供只读数据,类似数据库或知识库,AI 可查询获取信息,但不能修改。

图片

  • 与工具不同,资源通常在宿主控制下访问,避免模型随意读取,例如,从本地文件、知识库片段、数据库查询结果(只读)等获取内容。

  • 提示(Prompts) :是预定义的提示模板或对话流程,可注入以引导AI行为,

图片

例如,代码审查的提示模板,服务器提供后,宿主可调用并插入用户代码,供模型生成回复前使用。

上述这三者构成MCP框架的核心能力。

NO.2 MCP九大经典案例详解

案例1:MCP 金融分析师

这里我们介绍如何构建一个 MCP驱动的AI工具,这个工具能够从Cursor或 Claude Desktop获取、分析并生成股票市场趋势分析。

图片

技术栈:

  • 使用 CrewAI 进行多代理编排。

  • 通过 Ollama 本地部署 DeepSeek-R1作为LLM。

  • 选择 Cursor 作为 MCP 宿主。

工作流程:

  1. 用户提交查询。

  2. MCP 代理启动金融分析师团队。

  3. 团队开展研究并创建可执行脚本。

  4. 代理运行脚本以生成分析图表。

具体实现步骤:

  1. 设置 LLM:使用 Ollama 本地部署 DeepSeek-R1。

    图片

  2. 查询解析代理:这个代理接收自然语言查询,并使用 Pydantic 提取结构化输出。这确保了输入结构清晰且干净,以便后续处理!

    图片

  3. 构建代码编写代理:编写可视化股票数据的 Python 代码。

    图片

  4. 构建代码执行代理:审查并执行代码以生成分析图表。

    图片

  5. 设置并启动。

    图片

  6. 创建MCP服务器:定义分析股票的工具、保存代码工具和运行代码并显示图表工具。

    图片

  7. 将MCP服务器与Cursor 集成。

    图片

8.现在,我们可以开始与 MCP服务器进行交互了。

图片

在这个金融分析师工具中,我们可以通过以下两种方式获取股票分析:

  • 提供与股票市场相关的自然语言查询,如“分析特斯拉与英伟达的股票表现”。

  • 根据你的需求自定义工具,实现更丰富的金融分析功能。

相关学习网址:https://www.dailydoseofds.com/p/hands-on-building-an-mcp-powered-financial-analyst/

**案例2:**MCP语音AI工具

这里我们介绍如何构建一个MCP驱动的语音AI工具,它能够查询数据库并在需要时回退到网络搜索。

图片

技术栈

  • 使用 AssemblyAI 进行语音转文本。
  • 使用 Firecrawl 进行网络搜索。
  • 使用 Supabase 作为数据库。
  • 使用 Livekit 进行编排。
  • 使用 Qwen3 作为 LLM。

工作流程

  1. 用户的语音查询通过 AssemblyAI 转录为文本。
  2. 代理发现数据库和网络工具。
  3. LLM 调用合适的工具,获取数据并生成响应。
  4. 应用通过文本转语音提供响应。

具体实现步骤:

1.初始化Firecrawl和Supabase:我们实例化Firecrawl以启用网络搜索,并启动我们的MCP服务器,以便向代理暴露Supabase工具。

图片

2.定义网络搜索工具: 我们通过 Firecrawl 搜索的是使用 Firecrawl 搜索功能。

图片

3.获取 Supabase MCP 工具: 我们通过 MCP 服务器列出 Supabase 工具,并将每个工具封装为 LiveKit 工具,以供我们的代理使用。

图片

4.构建: 我们为代理设置了处理用户查询的指令。同时,我们还让代理能够访问之前定义的 Firecrawl 网络搜索工具和 Supabase 工具。

图片

5.配置语音转响应流程:

● 使用 AssemblyAI 语音转文本将用户语音转录为文本。

● 本地运行的 Qwen 3 LLM 通过 Ollama 调用合适的工具。

● 通过文本转语音(TTS)生成语音输出。

图片

6.启动: 我们连接到 LiveKit 并以一条问候语启动会话。然后持续监听并回应,直到用户停止。

图片

完成啦! 我们的 MCP 驱动语音工具已准备OK。

● 如果查询与数据库相关,它会通过 MCP 工具查询 Supabase。

● 否则,它会通过 Firecrawl 进行网络搜索。

相关学习网址:https://www.dailydoseofds.com/p/an-mcp-powered-voice-agent/

案****例3:构建统一 MCP 服务器

本项目主要是打造一个 MCP 服务器,借助 MindsDB 和 Cursor IDE 的强大功能,实现通过自然语言与 200 多个数据源进行查询和聊天的统一界面。

图片

技术栈

  • 使用 MindsDB 驱动我们的统一 MCP 服务器;
  • 选择 Cursor 作为 MCP 宿主;
  • 借助 Docker 自行托管服务器;

工作流程

  1. 用户提交查询;

  2. 代理连接到 MindsDB MCP 服务器以查找工具;

  3. 根据用户查询选择合适的工具并调用;

  4. 最后,返回具有上下文相关性的响应;

具体实现步骤:

1.Docker 环境设置:MindsDB 提供了可在 Docker 容器中运行的镜像。 通过在终端运行命令,使用 Docker 镜像本地安装 MindsDB。

图片

2.启动 MindsDB:图形用户界面 安装 Docker 镜像后,在浏览器中访问 127.0.0.1:47334 即可进入 MindsDB 编辑器。 通过该界面,你可以连接 200 多个数据源,并对它们运行 SQL 查询。

3.集成数据源:让我们开始构建联邦查询引擎,方法是将数据源连接到 MindsDB。这里使用 Slack、Gmail、GitHub 和 Hacker News 作为联合数据源。

图片

4.将 MCP 服务器与 Cursor 集成:构建联合查询引擎后,我们通过将数据源连接到 MindsDB 的 MCP 服务器来统一这些数据源。

转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

完成!我们的 MindsDB MCP 服务器已成功上线并与 Cursor 完成连接! 目前,该 MCP 服务器提供了以下两项工具:

  • list_databases:列出所有连接到 MindsDB 的数据源。
  • query:回答用户关于联邦数据的查询。

图片

除了 Claude 和 Cursor 之外,MindsDB MCP 服务器还兼容新的 OpenAI MCP 集成功能。

图片

相关学习网址:https://www.dailydoseofds.com/p/build-an-mcp-server-to-connect-to-200-data-sources/

**案****例4:**为 Claude和Cursor提供MCP驱动的共享内存

开发人员通常独立使用 Claude 桌面版和 Cursor,二者之间无法共享上下文。接下来,我们介绍如何添加一个通用的内存层,以便在跨平台操作时保持上下文的连贯性。

图片

技术栈

  • 使用 Zep 的 Graphiti MCP 作为 AI 代理的内存层。
  • Cursor 和 Claude 作为 MCP 宿主。

工作流程

  1. 用户向 Cursor 和 Claude 提交查询。
  2. 使用 Graphiti MCP 将事实 / 信息存储在通用内存层中。
  3. 如果任何交互需要上下文,将查询内存。
  4. Graphiti 在多个宿主之间共享内存。

具体步骤

1.Docker 设置:使用 Docker Compose 部署 Graphiti MCP 服务器。此设置使用服务器发送事件(SSE)传输启动 MCP 服务器。

图片

上述 Docker 设置包含一个 Neo4j 容器,它以本地实例的形式启动数据库。 此配置允许我们通过 Neo4j 浏览器预览功能来查询和可视化知识图谱。

图片

2.将 MCP 服务器连接到 Cursor:工具和服务器都已准备好,现在让我们将其与 Cursor IDE 集成!

转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

3.将 MCP 服务器连接到 Claude 转到文件 → 设置 → 开发者 → 编辑配置,添加以下内容:

图片

完成啦! 我们的 Graphiti MCP 服务器已成功上线,并与 Cursor 和 Claude 完成了连接!

图片

现在,我们可以与 Claude 桌面端聊天、分享事实 / 信息,并将响应存储在内存中,然后从 Cursor 中检索。

反过来同样。通过单一的 MCP,我们也可以直接将 Claude 的分析输入到 Cursor 中。

相关学习网址:https://www.dailydoseofds.com/p/build-a-shared-memory-for-claude-desktop-and-cursor/

例5:MCP 驱动的复杂文档 RAG

借助MCP构建复杂文档的 RAG 应用,可处理含表格、图表、图片及复杂布局的文档。

增强 AI 应用处理多模态文档的能力,提升信息检索效率与准确性,助力用户高效利用复杂文档。以下是相关技术堆栈和实现步骤

图片

技术栈

  • Cursor:作为 MCP 客户端;
  • EyelevelAI’s GroundX:构建能够处理复杂文档的 MCP 服务器;

工作流程

  1. 用户与 MCP 客户端(Cursor IDE)互动。
  2. 客户端连接到 MCP 服务器并选择工具。
  3. 工具利用 GroundX 对文档进行高级搜索。
  4. 搜索引擎结果由客户端用于生成响应。

具体步骤

1.设置服务器:首先,我们使用 FastMCP 设置一个本地 MCP 服务器,并为其命名。

图片

2.创建 GroundX 客户端:GroundX 提供了针对复杂现实文档的文档搜索和检索功能。 以下是设置客户端的方法:

图片

3.创建数据摄入工具 该工具用于将新文档导入知识库。用户只需提供要导入文档的路径:

图片

4.创建搜索工具:此工具利用 GroundX 的高级功能,能够从复杂的真实世界文档中进行搜索和检索。以下是实现方法:

图片

5.启动服务器 使用 stdio 作为传输机制来启动一个 MCP 服务器:

图片

6.在 Cursor IDE 中操作如下:Cursor → 设置 → Cursor 设置 → MCP 然后按以下方式添加并启动服务器:

图片

相关学习网址:https://www.dailydoseofds.com/p/mcp-powered-rag-over-complex-docs/

**案例6:**合成数据生成器

下面我们介绍如何构建一个能够生成任何类型合成数据集的 MCP 服务器。它使用 Cursor 作为 MCP 宿主,并利用 SDV 生成逼真的表格型合成数据。

图片

技术栈

  • Cursor:作为 MCP 宿主;
  • Datacebo 的 SDV:生成逼真的表格型合成数据;

工作流程

  1. 用户提交查询;
  2. 代理连接到 MCP 服务器以查找工具;
  3. 代理根据查询使用合适的工具;
  4. 返回有关合成数据创建、评估或可视化的响应;

以下是我们的 MCP 服务器概览,其中包含以下三种工具:

  • SDV Generate:生成合成数据
  • SDV Evaluate:评估合成数据
  • SDV Visualise:可视化合成数据

我们已将这些工具的实际实现(使用 SDV SDK)单独放在一个名为 tools.py 的文件中,并在此处导入。

图片

下面我们详细介绍每个工具。

1.SDV 生成工具:该工具使用 SDV 合成器从真实数据中创建合成数据。 SDV 提供了多种合成器,每种合成器都使用不同的算法来生成合成数据。

图片

2.SDV 评估工具 此工具用于评估合成数据与真实数据的质量对比。 我们将通过评估统计相似性来确定合成数据捕捉到了哪些真实数据模式。

图片

#3)SDV 可视化工具 此工具生成可视化效果,用于比较特定列的真实数据和合成数据。 使用此功能可以将真实列与其对应的合成列进行可视化对比。

图片

工具和服务器已准备就绪,现在让我们将它与 Cursor IDE 集成!转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

完成!合成数据生成器 MCP 服务器已成功启动,并与 Cursor 完成连接!

图片

相关学习网址:https://www.dailydoseofds.com/p/hands-on-mcp-powered-synthetic-data-generator/

例7 MCP 驱动的深度研究员

ChatGPT 具备深度研究功能,能够帮我们获取任何主题的详细分析。下面我们介绍如何打造一个 100% 本地化的替代方案。

图片

技术栈

  • Linkup 平台:用于深度网络研究;
  • CrewAI:用于多代理编排;
  • Ollama:本地部署 DeepSeek;
  • Cursor:作为 MCP 宿主;

工作流程

  1. 用户提交查询;
  2. 网络搜索代理通过 Linkup 进行深度网络搜索;
  3. 研究分析师验证并去重结果;
  4. 技术写作者撰写包含引用的连贯响应;

具体步骤

1.设置 LLM 我们将使用 Ollama 本地部署 DeepSeek-R1。

图片

2.定义网络搜索工具:使用 Linkup 平台强大的搜索功能来为我们的网络搜索代理提供支持。

图片

Linkup 的搜索能力可与 Perplexity 和 OpenAI 相媲美。这需要我们定义一个自定义工具供代理使用。

3.定义网络搜索代理:网络搜索代理会根据用户的查询从互联网收集最新信息。我们之前定义的 Linkup 工具将被此代理使用。

图片

4.定义研究分析师代理:这个代理将原始的网络搜索结果转化为带有来源 URL 的结构化见解。它还可以将任务委托回网络搜索代理进行验证和事实核查。

图片

5.定义技术写作者代理:技术写作者代理会从分析师代理那里获取经过分析和验证的结果,并为最终用户撰写包含引用的连贯响应。

图片

6.设置团队:在定义了所有代理和工具之后,我们将设置并启动我们的深度研究团队。

图片

7.创建 MCP 服务器 现在,我们将把深度研究团队封装在一个 MCP 工具中。只需几行代码,我们的 MCP 服务器就将准备就绪。

图片

让我们看看如何将其与 Cursor 连接。

8.将 MCP 服务器与 Cursor 集成 转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器 在 JSON 文件中添加以下内容:

图片

完成!我们的深度研究 MCP 服务器已成功上线,并与 Cursor 完成连接。

图片

相关学习网址:https://www.dailydoseofds.com/p/hands-on-mcp-powered-deep-researcher/

例8:MCP 驱动的视频检索增强生成(RAG)

我们构建了一个由 MCP 驱动的视频 RAG 系统,它能够摄入视频内容并支持与之互动聊天。此外,该系统还能精准定位并获取事件发生的确切视频片段。

图片

技术栈

  • RagieAI:用于视频的摄入和检索。
  • Cursor:作为 MCP 宿主。

工作流程

  1. 用户指定视频文件和查询内容。
  2. 摄取工具将视频索引到 Ragie 中。
  3. 查询工具从 Ragie 索引中检索带有引用的信息。
  4. 显示视频工具返回回答查询的视频片段。

让我们来实现这个功能!

1.载入数据:我们实现了一种将视频文件摄入到 Ragie 索引中的方法。我们还指定了音频 - 视频模式,以便在摄入过程中加载音频和视频通道。

图片

2.检索数据:我们根据用户查询从视频中检索相关的片段。每个片段都有开始时间、结束时间以及与视频片段对应的其他详细信息。

图片

3.创建 MCP 服务器 我们将 RAG 管道集成到一个具有以下三种工具的 MCP 服务器中:

  • ingest_data_tool:将数据摄入到 Ragie 索引中。
  • retrieve_data_tool:根据用户查询检索数据。
  • show_video_tool:从原始视频创建视频片段。

图片

4.将 MCP 服务器与 Cursor 集成:要将 MCP 服务器与 Cursor 集成,请转到设置 → MCP → 添加新的全局 MCP 服务器。

图片

完成!本地 Ragie MCP 服务器已成功上线,并与 Cursor 完成连接!

图片

接下来,我们通过 Cursor 与 MCP 服务器进行交互。根据查询,它可以:

  • 将新视频载入到 Ragie 索引中。
  • 获取有关现有视频的详细信息。
  • 检索发生特定事件的视频片段。

以上就是你的 MCP 驱动的视频 RAG 的全部实现了。

相关学习网址:https://www.dailydoseofds.com/p/build-an-mcp-powered-rag-over-videos/

例9:MCP 音频分析工具包

我们介绍一款MCP 驱动的音频分析工具包,它支持音频文件,能够转录音频并提取诸如情感分析、说话人标签、摘要和主题检测等见解。它还支持与音频进行聊天。

图片

技术栈

  • AssemblyAI:用于转录和音频分析。
  • Claude 桌面版:作为 MCP 宿主。
  • Streamlit:用于构建用户界面(UI)。

工作流程

  1. 用户的音频输入通过本地 MCP 服务器发送到 AssemblyAI。
  2. AssemblyAI 在转录的同时提供摘要、说话人标签、情感和主题信息。
  3. 转录完成后,用户还可以与音频进行聊天。

具体步骤

1.转录音频的 MCP 工具:此工具接受用户的音频输入,并使用 AssemblyAI 进行转录。我们还会存储完整的转录内容,以便在下一个工具中使用。

图片

2.音频分析工具:接下来,我们有一个工具可以从转录内容中返回特定的分析,例如说话人标签、情感、主题和摘要。

图片

3.创建 MCP 服务器 现在,我们将设置一个 MCP 服务器来使用我们上面创建的工具。

图片

4.将 MCP 服务器与 Claude 桌面版集成:转到文件 → 设置 → 开发者 → 编辑配置,并添加以下代码。

图片

5.上述一旦服务器配置完成,Claude 桌面版将在工具菜单中显示我们构建的两个工具:

  • transcribe_audio:转录音频工具。
  • get_audio_data:获取音频数据工具。

图片

这就是我们的 MCP 驱动的音频分析工具包! 为了便于访问,我们为音频分析应用创建了一个 Streamlit UI。我们可以上传音频文件,提取分析,并使用 AssemblyAI 的 LeMUR 与音频进行聊天。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐