DeepSeek本地部署 | 保姆级式教程 (DeepSeek+docker)
AI大模型,大家都不陌生吧,那么如何拥有一个属于自己的AI大模型呢,现在跟着我来,开始部署属于我们自己的AI大模型吧。
·
DeepSeek本地部署|保姆级式教程
部署属于自己的DeepSeek AI模型
1.安装Ollama模型
根据你的电脑系统,下载相应的版本
https://ollama.com/download
找到下载的文件,双击点安装
验证安装
ollama --version
如果输出版本号(例如ollama version is 0.5.6
),则说明安装成功。
2.下载并部署DeepSeek模型
ollama支持多种模型,我们可以选择deepseek模型
ollama run deepseek-r1
所占内存很大(4.7),需要等待,可能会遇到网络问题,可能是服务器过载问题,重新下载即可
3.部署open wed ui(可视化)
安装Dcoker
下载完毕之后,安装
安装完成之后,在终端输入命令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
输入命令之后等待的时间可能会有点长,因为要远程下载1G的资源,耐心等待一下
下载完成之后,点击docker并运行
点击3000:8080
跳转到网页版
更多推荐
所有评论(0)