一、MCP爆火的原因

  • 在传统交互实现中,开发人员必须为 AI 应用交互的每个工具或服务,建立手动 API 连接。
  • 此过程需要为每次集成进行自定义身份验证、数据转换和错误处理。
  • 随着 API 数量的增加,维护负担变得非常显著,通常会导致紧密耦合且脆弱的系统,难以扩展或修改。

图片

  • MCP通过提供标准化协议来简化此过程,该协议使AI智能体能够通过统一的接口无缝地调用、交互和链接多个工具。
  • 这减少手动配置并增强了任务灵活性,使智能体能够执行复杂的操作而无需大量的自定义集成。

二、MCP架构

MCP架构由三个核心组件组成:

  • MCP主机(MCP HOST)
  • MCP客户端(MCP Clients)
  • MCP服务器(MCP Servers)

图片

figure2展示了MCP基本的工作流程:

  • 首先,用户向MCP客户端发送提示。
  • 接着,客户端分析意图,通过MCP服务器选择合适的工具,并调用外部API来检索和处理所需信息。
  • 最后,通知用户结果。

图片

2.1 MCP HOST

  • MCP HOST托管 MCP Client并确保与外部 MCP Server的通信。
  • MCP Host是一个AI应用程序,它提供执行基于AI的任务的环境,同时运行MCP Client。
  • 它集成交互式工具和数据,以实现与外部服务的顺畅通信。
  • 例如,用于 AI 辅助内容创作的 Claude Desktop;用于代码补全和软件开发的 AI 驱动的 IDE Cursor;执行复杂任务的 Agent

2.2 MCP Client

  • MCP Client充当主机环境中的中介,管理 MCP Host和一个或多个 MCP server之间的通信。
  • 确保了host与外部工具之间无缝交互
  • MCP Client 向MCP server发起请求,查询可用功能,并检索描述服务器功能的响应。
  • MCP Client还会处理来自 MCP server的通知,提供有关任务进度和系统状态的实时更新
  • MCP Client 通过传输层与 MCP server通信,促进了安全可靠的数据交换以及主机与外部资源之间的顺畅交互。

2.3 MCP Server

MCP 服务器使 MCP 主机和客户端能够访问外部系统并执行操作,提供三个核心功能:工具(tool)、资源(Resources)和提示(prompts)。

图片

  • 工具,启用外部操作

    • 当MCP Client请求操作时,MCP Server会识别合适的工具,与服务交互,并返回结果。
    • 例如,AI 模型需要实时天气数据或情感分析,MCP server将连接到相关的 API,检索数据并将其传递给MCP Host
  • 资源,向AI模型公开数据

    • MCP Server向AI模型公开的结构化和非结构化数据库的访问。
    • 当AI模型请求特定数据时,MCP server将检索和处理相关信息,使模型能够做出数据驱动的决策。
    • 例如,推荐系统可以访问客户互动日志,或者文档摘要任务可以查询文本存储库。
  • 提示:用于工作流优化的可重用模板

    • prompt 是MCP server生成和维护的预定义模板和工作流,用于优化AI响应和简化重复性任务。
    • 例如,客户支持聊天机器人可以使用提示模板来提供统一和准确的响应,而标注任务则可以依靠预定义的提示来保持数据标记的一致性。

三、传输与通信,链接三个核心组件

  • 传输

    • 传输层确保安全、双向通信,允许主机环境与外部系统之间进行实时交互和高效的数据交换。
    • 管理从客户端传输初始请求、交付详细说明可用功能的服务器响应以及交换通知以使客户端了解正在进行的更新。
  • 通信

    • MCP Client和MCP Server之间的通信遵循一个结构化过程
    • Client向Server发送初始请求查询
    • Server收到请求后,将以初始响应列出客户端可以利用的可用工具、资源和提示。
    • 建立连接后,系统会持续交换通知,以确保Server状态或更新的变化能够实时地传回Client。

四、MCP Server生命周期

MCP Server生命周期包含三个关键阶段:

  • 创建
  • 运行
  • 更新

图片

创建阶段

创建阶段,是MCP服务器生命周期的初始阶段,其中,包含三个关键步骤:

  • 服务器注册(Server registration)

    • 为MCP服务器分配唯一的名称和标识,允许客户端发现并连接到相应的服务器实例。
  • 安装程序部署(Installer deployment)

    • 安装MCP服务器及其关联组件,确保正确的配置文件、源代码和清单到位。
  • 代码完整性验证(Code integrity verification)

    • 验证服务器代码库的完整性,以防止在服务器投入运行之前发生未经授权的修改或篡改。

总结:创建阶段可确保MCP服务器能够处理请求并与外部工具和数据源安全地交互。

运行阶段

运行阶段,是MCP服务器主动处理请求、执行工具调用并促进AI应用程序与外部资源之间无缝交互的阶段。也包含三个关键的步骤:

  • 工具执行(Tool execution)

    • 允许MCP服务器根据AI应用程序的请求调用相应的工具,确保所选工具执行其预定操作。
  • 命令处理(Slash command handling)

    • 使服务器能够解释和执行多个命令
    • 包括:通过用户界面或AI代理发出的命令,同时管理潜在的命令重叠以防止冲突。
  • 沙箱机制(Sandbox mechanism)

    • 强制执行确保执行环境隔离且安全,防止未经授权的访问并降低潜在风险。

总结:在整个运行阶段,MCP服务器保持稳定和受控的环境,实现可靠和安全的任务执行。

更新阶段

更新阶段,确保MCP服务器保持安全、最新并能够适应不断变化的需求。同样包含三个关键步骤:

  • 授权管理(Authorization management)

    • 验证更新后访问权限是否仍然有效,防止更新后未经授权使用服务器资源。
  • 版本控制(Version control)

    • 维持不同服务器版本之间的一致性,确保新的更新不会引入漏洞或冲突。
  • 旧版本管理(Old version management)

    • 禁用或删除过时的版本,以防止攻击者利用先前版本中的已知漏洞。

MCP到此介绍完毕。

最后的最后

感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。

为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。

这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。

这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

大模型知识脑图

为了成为更好的 AI大模型 开发者,这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

经典书籍阅读

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

在这里插入图片描述

实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

面试资料

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

在这里插入图片描述

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐