1.下载安装Ollama

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

2.ollama基本命令

# 启动 Ollama 服务
ollama serve

# 查看启动状况
ollama -v

# 运行模型
ollama run <模型名称>

# 删除本地已下载的模型
ollama rm <模型名称>

# 创建自定义模型
ollama create <自定义模型名称> --file <Modelfile路径>

# 停止Ollama服务
ollama stop

# 列出本地模型
ollama list

3.加载自定义模型

  • Qwen/Qwen1.5-1.8B-Chat 模型为例子

3.1 下载模型

参考上一文章

3.2 量化转成GGUF格式

GGUF介绍:上一文章

python convert_hf_to_gguf.py /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat --outtype q8_0 --verbose --outfile /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf
  • 如下
    在这里插入图片描述

3.3 定义ModelFile文件

  • ModelFile文件内容
FROM /home/llm/ai/model/Qwen/Qwen1___5-1___8B-Chat-gguf_q8_0.gguf

3.4 创建模型

ollama create Qwen1___5-1___8B-Chat-gguf_q8_0 --file ./ModelFile

3.5 运行模型

ollama run Qwen1___5-1___8B-Chat-gguf_q8_0
  • 结果
    在这里插入图片描述
Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐