前言

大家大家好,今天来给大家带来如何将一个MCP服务发布到远程服务器,供更多人使用。或者在公司内部提供一个MCP服务进行操作数据库、操作API等,借助LLM的强大能力增效。 当然具体怎么做,还是要看你如何实现这个MCP服务器。

图片

如何实现?本文还是用到上期实现MCP服务的SDK。 在开始之前需要了解一下MCP交互协议(SSE);以及另外一个赛博活菩萨Vercel,它提供我们MCP的运行环境(主要是免费),而且和Github集成非常好,只要我们把代码提交到Github,就自动部署,整个CD做的很方便。


什么是SSE Transport?

MCP(Model Context Protocol) 是一个开放协议,旨在标准化应用程序与大型语言模型(LLM)之间的上下文交互。它定义了客户端与服务器如何通过传输层交换消息。MCP 支持两种标准传输机制:

  • stdio:通过标准输入输出流进行本地通信。
  • SSE(Server-Sent Events):通过 HTTP 协议实现服务器到客户端的实时单向数据推送,结合 HTTP POST 用于客户端到服务器的消息发送。

SSE Transport 是 MCP 中基于 HTTP 的传输方式,利用 SSE 技术实现服务器到客户端的流式消息推送,同时通过 HTTP POST 请求处理客户端到服务器的双向通信。这种机制特别适合需要实时更新或远程通信的场景。


SSE Transport 的工作原理

SSE(Server-Sent Events)是一种基于 HTTP 协议的服务器推送技术,允许服务器向客户端发送实时更新。MCP 的 SSE Transport 结合了 SSE 和 HTTP POST,形成了以下工作流程:

交互流程

1.建立连接:

  • 客户端通过 HTTP GET 请求访问服务器的 SSE 端点(例如 /sse)。
  • 服务器响应一个 text/event-stream 类型的内容,保持连接打开。
  • 服务器发送一个初始的 endpoint 事件,包含一个唯一的 URI(例如 /messages?session_id=xxx),客户端后续通过这个 URI 发送消息。

2.服务器到客户端的消息推送:

  • 服务器通过 SSE 连接将 JSON-RPC 格式的消息以事件流的形式发送给客户端。
  • 客户端通过 EventSource 或类似机制监听这些事件。

3.客户端到服务器的消息发送:

  • 客户端通过 HTTP POST 请求将消息发送到服务器提供的 URI(例如 /messages)。
  • 服务器接收并处理这些请求,返回响应或通过 SSE 推送结果。

4.连接管理:

  • SSE 连接是单向的(服务器到客户端),通常通过定期发送心跳消息(keep-alive)保持活跃。
  • 如果连接断开,客户端可以重新发起 SSE 请求重建连接。

数据格式

SSE 消息遵循 event:\ndata:\n\n 的格式。 MCP 使用 JSON-RPC 2.0 协议封装消息,确保请求和响应的结构化处理

示例

客户端 POST 请求:

 
  1. POST /messages HTTP/1.1
  2. Content-Type: application/json
  3. {"jsonrpc": "2.0", "method": "example", "params": {"text": "Hi"}, "id": 1}

**服务器推送:

 
  1. event: message
  2. data: {"jsonrpc": "2.0", "id": 1, "result": {"text": "Hello"}}

Vercel创建项目

Vercel地址:https://vercel.com/, 用Github账号登录即可

创建项目

图片

选择框架

图片

笔者还是选择Python框架

直接部署

图片

这时候会关联你的Github账号对应的仓库,做一下授权即可,笔者之前已经关联过,所以直接展示:

图片

点击Upgrade and Deploy后就可以去Github Clone项目进行下一步操作:代码改造!!🚀🚀🚀

注:因为笔者之前有几个项目了,所以现在只有14天的试用期。


代码改造

因为笔者在前面的文章中已经有代码解释了这里直接贴, 或者去这里查看: https://github.com/PulsarPioneers/mcp-server-example

 
  1. from mcp.server.fastmcp import FastMCP
  2. from starlette.applications import Starlette
  3. from starlette.routing import Mount, Host
  4. mcp = FastMCP("mcp-server-demo", "MCP Server Example")
  5. @mcp.tool()
  6. def add(a: int, b: int) -> int:
  7.     """
  8.     Adds two numbers.
  9.     """
  10.     return a + b
  11. @mcp.resource("greeting://{name}")
  12. def get_greeting(name: str) -> str:
  13.     """
  14.     Returns a greeting message.
  15.     """
  16.     return f"Hello, {name}!"
  17. app = Starlette(
  18.     routes=[
  19.         Mount('/', app=mcp.sse_app()),
  20.     ]
  21. )
  22. app.router.routes.append(Host('mcp.acme.corp', app=mcp.sse_app()))

提交代码, 去vercel平台等待部署完成,即可测试。


测试

本次使用curl直接测试

笔者vercel平台提供的地址是:mcp-server-example.vercel.app

 
  1. curl http://localhost:8000/sse

图片

到这里,MCP服务成功。

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

 

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐