随着人工智能技术的迅猛发展,大模型应用的集成变得愈发重要。在这个过程中,MCP、A2A 与 AG - UI 这三个协议发挥着关键作用,它们就像是大模型应用集成领域的 “三件套”,共同构建了一个完整的生态系统,为开发者提供了强大的工具和框架,使得大模型能够更高效地与外部世界交互,实现更加智能和丰富的应用场景。接下来,就让我们深入了解这三个协议的起源、架构和开发要点。

1、MCP(Model Context Protocol,模型上下文协议)

【起源】
  1. 发布信息:MCP 由 Claude 的母公司 Anthropic 于 2024 年 11 月开源发布。

  2. 诞生背景:其诞生与 Function Calling 的广泛运用紧密相连。2023 年 6 月,OpenAI 在 GPT - 4 - 0613 和 GPT - 3.5 - turbo - 0613 模型中率先引入 Function Calling 功能,使 AI 模型能执行特定任务,但不同模型在 Function Calling 实现细节上存在差异,导致多模型集成开发复杂、工作量大。为给模型提供标准化上下文管理及与外部交互的统一协议,MCP 应运而生。

  3. 发展态势:自 2024 年 3 月起,MCP 发展呈爆发式增长,备受关注。3 月 27 日 OpenAI 在 Agent SDK 中支持 MCP ,4 月 4 日谷歌在 Gemini 的官方 API 文档中增添 MCP 使用范例,海外三大 AI 巨头的支持彰显其在行业内的重要影响力。

img

【架构】

MCP 标准化了一种向AI应用/LLM提供上下文数据和工具的方式 。其架构采用客户端-服务器模型:

  • 在需要使用外部资源/工具的 LLM 应用中嵌入 MCP 客户端,作为请求发起方

  • 将外部资源/工具封装成轻量的 MCP Server,暴露标准化接口供LLM应用调用

img

MCP协议对以下部分进行了标准化:

  • 消息与传输协议(JSON-RPC/HTTP/SSE等)

  • 服务端与客户端提供的主要功能、交互流程与消息格式

  • 必要的辅助功能(初始化、安全、服务端通知机制等)

【开发】

通常的MCP开发可以分为两种:

  • 开发 MCP Server(s)

也就是把你的数据源、工具、知识库等“封装”成一个符合 MCP 协议的 MCP 服务器,供 LLM 应用调用。这只需要借助MCP官方提供的多语言SDK即可;也有一些开源项目可以帮助把已有的企业API包装成MCP Server。

  • 借助 MCP Server 开发 LLM 应用

也就是在你的 LLM 应用里借助MCP 客户端调用一个或多个 MCP Server,获取外部能力。同样可以用 MCP 官方提供的 SDK 来实现;此外,像LangGraph这样的开发框架通常会提供MCP适配器以进一步简化集成工作。

2、A2A(Agent-to-Agent Protocal,智能体互通协议)

【起源】

1. 推出背景:2025 年 3 月,在 MCP 走红之际,谷歌推出了 A2A 协议。

2. 与 MCP 的区别:

  • 尽管 A2A 和 MCP 都是通过开放和标准化的方式,致力于解决 AI 系统中不同单元的集成与交互问题,但二者的目标和作用域存在本质区别。
  • MCP 主要解决 Agent 与外部工具、数据的集成问题,而 A2A 旨在促进独立 Agent 之间的通信,助力不同生态系统的 Agent 实现沟通与协作。

这张图清晰的展示了A2A协议与MCP协议的定位差别:

img

3. 诞生原因 :

  • 随着多 Agent 系统(Multi - Agent System, MAS)概念的兴起,人们逐渐认识到在处理复杂问题求解、分布式任务、模拟社会系统等问题时,多 Agent 系统具有明显优势。在多 Agent 系统中,每个 Agent 专注于单一领域,能够有效提高问题解决的效率。
  • 然而,不同 Agent 之间缺乏有效的通信标准,这成为了制约多 Agent 系统发展的瓶颈,A2A 协议正是为突破这一痛点而诞生。
【架构】

A2A协议定义了两个AI Agent之间如何通信与协作的格式和流程。基于A2A的集成架构如下:

img

A2A同样属于“客户端-服务端”的通信模式,只不过此处的“客户端”与“服务端”均为智能体:发起请求的一方临时充当客户端角色,被请求执行任务的一方则作为服务端提供相应能力。在不同场景中,智能体能够动态切换这两种角色,从而实现点对点的灵活交互:

  • Agent Card(智能体卡片):好比每个智能体对外公开的“服务说明”与“名片”,其中包含智能体的名称、版本、调用端点、拥有的技能、所需的认证方式等信息。

  • A2A Server:用于将某个智能体通过A2A协议向外部开放的服务器。它负责接收任务请求并作出响应或通知;与MCP Server开放工具不同,A2A Server开放的是智能体。

  • A2A Client:指访问A2A Server的其他智能体。显然,客户端与服务器是相对而言的,一个客户端智能体也可以通过A2A Server向其他应用开放。

A2A协议的交互流程比MCP更为复杂(毕竟调用智能体比调用工具更复杂),这里仅介绍其核心设计:

  • 任务模型:服务端智能体实现标准的任务接口,承担接收和处理任务请求、管理任务状态以及推送结果的职责;客户端智能体则通过HTTP调用服务端智能体的这些接口。

  • 任务流程:任务一般按照以下状态流转:已提交(submitted)→ 处理中(working)→(可能需要额外输入,即input-required)→ 完成(completed)或失败(failed)。A2A支持异步任务协作,拥有完善的通知和回调机制。

  • 交换内容:在交互过程中,双方可以交换“消息”和“工件”两类内容:消息可包含文本、文件、结构化数据等多种形式;工件则是指任务产出的最终结构化结果。

【开发】

A2A作为一项开放标准协议,其首个版本的规范文档已向公众发布;同时,初步版本的SDK(涵盖Python、JS、Go、Java版本)及Samples也已推出。对此感兴趣的开发者可提前开展试验,在小规模项目或测试中验证Agent互操作的可行性。

  • 实现A2A Server: 若你的智能体要以“服务端”身份提供功能,需按协议要求实现A2A Server的服务接口。要是你的框架已开始支持A2A接口封装(例如Google ADK),或许仅需进行配置以开启A2A支持就行。

  • 调用其他Agent: 若作为“客户端”,则需编写相关逻辑来发现目标Agent的地址并获取其Agent Card,之后依据Agent Card所提供的信息,调用其任务接口并获取结果。

3、AG-UI(Agent-User Interaction Protocol,智能体-UI协议)

【起源】

AG - UI 是 2025 年 5 月由 CopilotKit 团队发起并开源的协议,其诞生旨在解决 AI Agent 与前端交互的标准化问题。以下将用分点形式呈现其核心要点:

  1. 诞生背景:随着 AI Agent 在各类应用中广泛使用,后端 AI Agent 与前端用户界面间高效、标准化交互成为重要问题。此前因缺乏统一标准,开发复杂且易出现兼容性问题。
  2. 核心目标:填补 AI Agent 与前端应用交互的标准化空白,解决两者之间交互的标准化难题。
  3. 技术特性:提供轻量级、事件驱动的开放协议,实现 AI Agent 与用户界面的实时双向通信。
  4. 重要意义:有效提升用户体验,推动 AI 应用更广泛普及。

img

【架构】

与传统的请求-响应模式不同,AG-UI 将前后端的交互抽象为一系列事件流:前端应用和后端智能体通过发送/接收事件来沟通彼此的状态和意图 。

img

AG-UI的主要特性如下:

  • 事件驱动的实时交互:AG-UI构建了标准化的事件模型,可实现前后端之间持续的事件流通信。代理的所有行为,如发送消息、调用工具、更新状态等,都会以事件形式推送至前端;用户的操作,像输入消息、点击按钮等,也会作为事件传送给后端。该协议明确了十余种事件类型,包括文本消息事件、工具调用开始事件、状态更新事件等,覆盖了常见的交互场景。借助订阅事件流,前端能实时掌握AI的进展,无需频繁轮询;后端则可通过监听事件,即时响应用户的输入。

  • 双向协作:AG-UI支持真正意义上的双向协同。智能体既能持续向用户输出内容,也能依据用户的反馈调整自身行为(即“人类在环”模式);前端则可以根据智能体的状态实时渲染界面,例如显示处理进度、工具调用结果等,还能将界面上的操作实时反馈给智能体。这让AI更像是一个可随时互动的助手,而非仅能被动回答的机器。

另外,AG-UI对低层传输机制没有严格限制,开发者可根据实际需求选择SSE、WebSocket等多种方式,只需确保事件按照规定的格式和顺序传输即可。

【开发】

对于开发者来说,最直接的方式是使用官方提供的 SDK 进行集成。目前官方支持两种语言的 SDK,Python与TS/JS SDK。不过这里最推荐的是借助于官方的CopilotKit框架,可以认为它是一个AG-UI协议的实现参考框架。

4、总结

总的来说,MCP、A2A和AG-UI这三个协议,分别针对大模型应用开发中不同层面的集成问题提供了解决方案:

  • MCP 打造了模型对接外部数据与工具的统一接口,有“AI应用的USB-C端口”之称。它要解决的是“一个智能体怎样接入外部资源”的问题,使开发者无需为每种数据源编写复杂的适配代码。

  • A2A 构建了智能体之间协作的共同语言,可看作“AI智能体的网络协议”。其核心是解决“多个智能体如何实现对话与协同”的问题,为跨平台、多Agent的复杂系统确立了标准基础。

  • AG-UI 聚焦于智能体与用户界面的实时交互,被比作“前端与AI的通用翻译官”。它所回应的是“智能体如何与用户高效交流”的问题,确保AI的强大能力能以统一且贴近人性的方式展现在用户眼前。

    图片

显然,这三者并非彼此替代的竞争关系,而是各有侧重、环环相扣,构成了大模型应用集成的完整生态 。开发者可以将它们组合使用:借助 MCP,让AI具备广泛的外部知识和工具操作能力;借助 A2A,让多个AI分工合作完成更复杂的任务;借助 AG-UI,将AI深度融入用户界面,实现流畅的人机交互 。通过标准化这些关键环节,AI 应用开发正变得类似搭积木:不同模块有清晰的接口契约,组合起来就能快速构建出功能强大的系统。

5、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐