面向LLM的MCP开源方案调研
n8n
Webhook 节点可接收来自 AI Agent 的结构化请求,API 节点支持向外部系统发送请求。
通过函数节点实现条件判断、循环处理和数据转换,支持灵活的任务控制。
Dify
支持多模型、多应用形态的 AI 工作台
可以用它搭建聊天机器人、Agent 流程、RAG 系统,甚至是 AI Copilot。
支持调用 OpenAI、Claude、Gemini 等主流模型
支持复杂的上下文设置和变量输入
内置了数据集、工作流、插件等能力
https://github.com/langgenius/dify
Open WebUI
专为本地部署设计的 LLM 聊天交互界面
可以与 OpenAI API、LM Studio、Ollama 等后端模型无缝连接
https://github.com/open-webui/open-webui
Netdata
开源、实时的系统监控平台
可以展示服务器、容器、数据库、应用程序等的运行状态,几乎零配置即可启用。
轻量、响应极快、可嵌入任意系统,在高频数据采集和可视化方面表现出色。
https://github.com/netdata/netdata
Lobe Chat
一个开源的、UI 精致、功能强大的 LLM 聊天系统
支持多模型、多会话、多插件
完美适配 OpenAI、Claude、Gemini、Ollama 等主流模型
Lobe Chat 更强调用户体验和扩展性,提供了对话变量、Prompt 模版、角色预设等高级功能
https://github.com/lobehub/lobe-chat
Glama
一个面向 MCP 协议的开源客户端
允许在一个页面中连接并使用多个兼容 MCP 的服务(如上面的 LobeChat 和 Open WebUI)。
不提供模型推理能力,而是作为“聚合交互前端”
https://github.com/punkpeye/awesome-mcp-servers
RAGFlow
由 infiniflow 团队开源的一个用于构建 RAG(检索增强生成)系统的开发框架。
强调工程化能力,支持模块化流程编排、检索/生成解耦、上下文链路可视化和可调试性等特性
一个专注于搭建稳定、可控、可追踪的知识问答系统的流水线工具。
RAGFlow 更偏向“后端基础设施”,追求可复现、可测试、可观测的 RAG 流程。
https://github.com/infiniflow/ragflow
AnythingLLM
一个开源的桌面版与 Docker 部署的全栈应用
内置 RAG、AI Agent、可视化/无代码的 Agent 编排,并且原生兼容 MCP。
支持多家模型与本地/云端向量库、提供多用户与可嵌入的聊天组件,用来快速把“知识 + 模型 + 工具”拼成可用的 AI 应用,非常适合私有化与团队协作场景。
https://github.com/Mintplex-Labs/anything-llm
reference
---
n8n
dify
https://github.com/langgenius/dify
open-webui
https://github.com/open-webui/open-webui
netdata
https://github.com/netdata/netdata
lobe-chat
https://github.com/lobehub/lobe-chat
GitHub 上 Star 数量前 8 的开源 MCP 项目
https://www.nocobase.com/cn/blog/github-open-source-mcp-projects
更多推荐
所有评论(0)