靓仔:还在为这个manus没有激活码困扰?

靓仔:我就想进步一下,感受下新技术,我有什么醉,有什么醉!

脑洞消息铺:靓仔,你黑道雷么照给,come here,look look;

仅用时3天,OpenManus就在GitHub上获得了39K的星标,彻底火出圈了!这款Manus的开源版本完全免费,无需等待、无需支付任何费用、无需APIKEY,可直接对接本地的开源大模型。通过调用本地的Ollama,用户能够方便快捷地使用,简直不要太香!

本地部署过程:

肯定有准备事项呀:

提前准备安装 python 3.12 【点击下载】和 conda 【点击前往

1、第一步安装 uv(快速 Python 包安装程序和解析器):

curl -LsSf https://astral.sh/uv/install.sh | sh

2、第二步克隆存储库:

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

3、第三步创建一个新的虚拟环境并激活它:

Windows和macOS略有不同

Windows 系统执行:

uv venv
.venv\Scripts\activate

macOS系统执行:

uv venv
source .venv/bin/activate

4、第四步安装依赖:

uv pip install -r requirements.txt

5、第五步安装Ollama 本地部署AI大模型:

Ollama 官方下载:【点击前往

由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v 

本地模型安装命令:

ollama run qwen2.5-coder:14b

当然你可以安装任何你想要的,只要支持函数调用的模型就可以, 只需在安装命令 ollama run 后面跟上模型名称即可!

6、第六步修改配置文件

在安装目录下,找到 OpenManus\config\config.example.toml  ,把config.example.toml 改成 config.toml

内容改成如下:

# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
max_tokens = 4096
temperature = 0.0

# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"

# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."

注意:里面的模型文件名称要改成你自己安装的,后面的视觉模型可以和上面的一致,也可以自定义其它的视觉模型!

最后运行:

python main.py

运行以后就可以进行使用了!
项目地址:mannaandpoem/OpenManus: No fortress, purely open ground. OpenManus is Coming.

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐