一、MCP爆火的原因

  • 在传统交互实现中,开发人员必须为 AI 应用交互的每个工具或服务,建立手动 API 连接。

  • 此过程需要为每次集成进行自定义身份验证、数据转换和错误处理。

  • 随着 API 数量的增加,维护负担变得非常显著,通常会导致紧密耦合且脆弱的系统,难以扩展或修改。

图片

  • MCP通过提供标准化协议来简化此过程,该协议使AI智能体能够通过统一的接口无缝地调用、交互和链接多个工具。

  • 这减少手动配置并增强了任务灵活性,使智能体能够执行复杂的操作而无需大量的自定义集成。

二、MCP架构

MCP架构由三个核心组件组成:

  • MCP主机(MCP HOST)

  • MCP客户端(MCP Clients)

  • MCP服务器(MCP Servers)

图片

figure2展示了MCP基本的工作流程:

  • 首先,用户向MCP客户端发送提示。

  • 接着,客户端分析意图,通过MCP服务器选择合适的工具,并调用外部API来检索和处理所需信息。

  • 最后,通知用户结果。

图片

2.1 MCP HOST

  • MCP HOST托管 MCP Client并确保与外部 MCP Server的通信。

  • MCP Host是一个AI应用程序,它提供执行基于AI的任务的环境,同时运行MCP Client。

  • 它集成交互式工具和数据,以实现与外部服务的顺畅通信。

  • 例如,用于 AI 辅助内容创作的 Claude Desktop;用于代码补全和软件开发的 AI 驱动的 IDE Cursor;执行复杂任务的 Agent

2.2 MCP Client

  • MCP Client充当主机环境中的中介,管理 MCP Host和一个或多个 MCP server之间的通信。

  • 确保了host与外部工具之间无缝交互

  • MCP Client 向MCP server发起请求,查询可用功能,并检索描述服务器功能的响应。

  • MCP Client还会处理来自 MCP server的通知,提供有关任务进度和系统状态的实时更新

  • MCP Client 通过传输层与 MCP server通信,促进了安全可靠的数据交换以及主机与外部资源之间的顺畅交互。

2.3 MCP Server

MCP 服务器使 MCP 主机和客户端能够访问外部系统并执行操作,提供三个核心功能:工具(tool)、资源(Resources)和提示(prompts)。

图片

  • 工具,启用外部操作

    • 当MCP Client请求操作时,MCP Server会识别合适的工具,与服务交互,并返回结果。

    • 例如,AI 模型需要实时天气数据或情感分析,MCP server将连接到相关的 API,检索数据并将其传递给MCP Host

  • 资源,向AI模型公开数据

    • MCP Server向AI模型公开的结构化和非结构化数据库的访问。

    • 当AI模型请求特定数据时,MCP server将检索和处理相关信息,使模型能够做出数据驱动的决策。

    • 例如,推荐系统可以访问客户互动日志,或者文档摘要任务可以查询文本存储库。

  • 提示:用于工作流优化的可重用模板

    • prompt 是MCP server生成和维护的预定义模板和工作流,用于优化AI响应和简化重复性任务。

    • 例如,客户支持聊天机器人可以使用提示模板来提供统一和准确的响应,而标注任务则可以依靠预定义的提示来保持数据标记的一致性。

三、传输与通信,链接三个核心组件

  • 传输

    • 传输层确保安全、双向通信,允许主机环境与外部系统之间进行实时交互和高效的数据交换。

    • 管理从客户端传输初始请求、交付详细说明可用功能的服务器响应以及交换通知以使客户端了解正在进行的更新。

  • 通信

    • MCP Client和MCP Server之间的通信遵循一个结构化过程

    • Client向Server发送初始请求查询

    • Server收到请求后,将以初始响应列出客户端可以利用的可用工具、资源和提示。

    • 建立连接后,系统会持续交换通知,以确保Server状态或更新的变化能够实时地传回Client。

四、MCP Server生命周期

MCP Server生命周期包含三个关键阶段:

  • 创建

  • 运行

  • 更新

图片

创建阶段

创建阶段,是MCP服务器生命周期的初始阶段,其中,包含三个关键步骤:

  • 服务器注册(Server registration)

    • 为MCP服务器分配唯一的名称和标识,允许客户端发现并连接到相应的服务器实例。

  • 安装程序部署(Installer deployment)

    • 安装MCP服务器及其关联组件,确保正确的配置文件、源代码和清单到位。

  • 代码完整性验证(Code integrity verification)

    • 验证服务器代码库的完整性,以防止在服务器投入运行之前发生未经授权的修改或篡改。

总结:创建阶段可确保MCP服务器能够处理请求并与外部工具和数据源安全地交互。

运行阶段

运行阶段,是MCP服务器主动处理请求、执行工具调用并促进AI应用程序与外部资源之间无缝交互的阶段。也包含三个关键的步骤:

  • 工具执行(Tool execution)

    • 允许MCP服务器根据AI应用程序的请求调用相应的工具,确保所选工具执行其预定操作。

  • 命令处理(Slash command handling)

    • 使服务器能够解释和执行多个命令

    • 包括:通过用户界面或AI代理发出的命令,同时管理潜在的命令重叠以防止冲突。

  • 沙箱机制(Sandbox mechanism)

    • 强制执行确保执行环境隔离且安全,防止未经授权的访问并降低潜在风险。

总结:在整个运行阶段,MCP服务器保持稳定和受控的环境,实现可靠和安全的任务执行。

更新阶段

更新阶段,确保MCP服务器保持安全、最新并能够适应不断变化的需求。同样包含三个关键步骤:

  • 授权管理(Authorization management)

    • 验证更新后访问权限是否仍然有效,防止更新后未经授权使用服务器资源。

  • 版本控制(Version control)

    • 维持不同服务器版本之间的一致性,确保新的更新不会引入漏洞或冲突。

  • 旧版本管理(Old version management)

    • 禁用或删除过时的版本,以防止攻击者利用先前版本中的已知漏洞。

MCP到此介绍完毕。

 

 大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。


2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书 

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。



4.LLM面试题和面经合集


这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。



👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集***

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐