大模型部署指南之 Ollama 篇:一条命令实现开箱即用,零配置玩转主流模型
一、Ollama 是什么?
Ollama 是一个开源的 本地大语言模型(LLM)运行框架,支持在个人电脑上快速部署和运行各类大模型(如 Llama3、DeepSeek-R1、Gemma3、Qwen 系列等)。
1.1 核心优势
✅ 一键下载运行:无需复杂配置,一条命令启动模型
✅ 多平台支持:Windows/macOS/Linux 全兼容
✅ 模型量化:支持 4-bit/8-bit 量化,降低硬件需求
✅ 开放生态:可对接 OpenWebUI、LangChain 等工具
二、安装教程
以 Ubuntu 24.04 为例
2.1 一键安装
1 | |
- macOS、Windows 用户直接下载 官方应用程序 进行安装
- 安装后自动注册为系统服务,开机自启
- 版本更新也只需重新运行该命令即可
2.2 验证安装
1 | |
2.3 配置镜像加速
1 | |
注意事项:
在使用 Dify 工具接入 Ollama 模型时,可能会出现 Connection refused问题,此时设置 Environment="OLLAMA_HOST=0.0.0.0:11434" 即可解决,详细内容可查看 接入 Ollama 本地模型。
三、模型管理
3.1 下载模型
1 | |
3.2 运行模型
1 | |
3.3 删除模型
1 | |
四、高级功能
4.1 开放 API 接口
Ollama 默认提供 OpenAI 兼容 API(端口 11434):
1 | |
4.2 对接可视化界面
推荐搭配 OpenWebUI:
1 | |
注意:
- 通过访问
http://localhost:8080使用 Web 界面。 - 不设置
OPENAI_API_BASE_URL环境变量- 可以通过在 web 界面配置中手动设置 API 地址(
头像->设置->外部连接->+->URL->密匙->保存) - web 界面左上角选择对应模型即可
- 可以通过在 web 界面配置中手动设置 API 地址(
4.3 导入本地 GGUF 格式模型
4.3.1 使用 llama.cpp 工具将 huggingface 模型转为 GGUF 格式模型
llama.cpp 是一个开源的 LLM 运行框架,支持多种模型格式,包括 GGUF。
1 | |
1 | |
4.3.2 导入模型
导入本地通过 llama.cpp 转换的 GGUF 格式模型
1
2
3
4
5
6
7
8
9
10
11
12# 1. 新建ModelFile文件,将本地GGUF格式文件绝对路径添加到文件中
echo "FROM ~/workspace/ai/models/Qwen/Qwen2.5-1.5B-Instruct-merged-gguf.gguf" >> ModelFile
# 2. 创建自定义模型
ollama create qwen2.5:1.5b-Instruct --flie ./ModelFile
# 上述1,2步骤可以合并在一起执行
echo "FROM ~/workspace/ai/models/Qwen/Qwen2.5-1.5B-Instruct-merged-gguf.gguf" | \
ollama create qwen2.5:1.5b-instruct-custom --file /dev/stdin
# 或者
ollama create qwen2.5:1.5b-instruct-custom-q80 --file /dev/stdin <<EOF
FROM ~/workspace/ai/models/Qwen/Qwen2.5-1.5B-Instruct-merged-q80-gguf.gguf
EOF导入已下载的本地 GGUF 格式模型
通过 Modelfile 简单配置模型:1
2
3
4
5FROM qwen3:8b
PARAMETER temperature 0.7
SYSTEM """
你是一个专业的中文助手,回答需简洁准确。
"""构建自定义模型:
1
ollama create my-model -f Modelfile
五、命令说明
5.1 基础命令
| 命令 | 说明 |
|---|---|
ollama pull <模型名> |
下载模型(如 ollama pull qwen3:8b) |
ollama run <模型名> |
运行模型并进入交互模式 |
ollama list |
查看本地已安装的模型列表 |
ollama rm <模型名> |
删除本地模型 |
5.2 高级命令
| 命令 | 说明 |
|---|---|
ollama create <模型名> -f Modelfile |
通过 Modelfile 自定义模型 |
ollama show <模型名> --modelfile |
查看模型的 Modelfile 配置 |
ollama cp <源模型> <新模型> |
复制模型副本 |
5.3 实用参数
1 | |
5.4 服务控制命令
| 命令 | 说明 | 示例 |
|---|---|---|
ollama serve |
启动 API 服务 | ollama serve |
ollama serve --host 0.0.0.0 |
指定监听所有网络接口 | |
ollama serve --port 12345 |
自定义服务端口 |
5.5 API 测试命令
1 | |
六、总结
Ollama 是当前 最简单高效的本地大模型运行方案,适合:
- 🔍 隐私敏感场景:数据完全本地处理
- 💻 快速原型开发:一键测试不同模型
- 🚀 教育研究用途:低成本体验 LLM 能力
资源推荐:
大模型部署指南之 Ollama 篇:一条命令实现开箱即用,零配置玩转主流模型
https://blog.echo-silence.top/posts/953dc888.html