主题
09-2 Ollama WebUI(官方)
内置 Web 界面
很多人不知道的是:Ollama 从某个版本开始内置了一个简单的 Web UI。你不需要安装任何额外的东西——只要 Ollama 服务在运行,打开浏览器就能用。
访问方式
bash
# 确保 Ollama 服务正在运行
ollama serve &
# 直接在浏览器中访问
open http://localhost:11434你会看到一个简洁的界面,包含:
┌─────────────────────────────────────────────────────┐
│ Ollama (Built-in WebUI) │
│ │
│ ┌───────────────────────────────────────────┐ │
│ │ 🤖 Ollama is running │ │
│ │ Version: 1.5.0 │ │
│ └───────────────────────────────────────────┘ │
│ │
│ Chat │
│ ┌─────────────────────────────────────────────┐ │
│ │ Model: [qwen2.5:7b ▼] │ │
│ │ │ │
│ │ [Send a message... ] │ │
│ │ │ │
│ │ [💬 Generate] │ │
│ └─────────────────────────────────────────────┘ │
│ │
│ Models │
│ ┌─────────────────────────────────────────────┐ │
│ │ Name Size Modified │ │
│ │ qwen2.5:7b 4.3 GB 2024-12-15 │ │
│ │ llama3.1:8b 4.7 GB 2024-12-15 │ │
│ │ nomic-embed.. 274 MB 2024-12-10 │ │
│ └─────────────────────────────────────────────┘ │
│ │
└─────────────────────────────────────────────────────┘功能范围
官方 WebUI 的功能非常基础但足够日常使用:
| 功能 | 支持情况 | 说明 |
|---|---|---|
| 模型切换 | ✅ | 下拉选择已安装的任意模型 |
| 对话 | ✅ | 基本的多轮对话 |
| 流式输出 | ✅ | 实时显示生成过程 |
| Markdown 渲染 | ⚠️ 部分 | 基本支持,代码块渲染有限 |
| 模型管理 | ✅ | 查看/删除模型、查看模型信息 |
| 参数调节 | ❌ | 不支持(需要通过 API 或 Modelfile) |
| RAG / 文件上传 | ❌ | 不支持 |
| 多用户 | ❌ | 不支持 |
| 历史记录 | ⚠️ 仅当前会话 | 刷新页面即丢失 |
适用场景与限制
适合的场景:
- 快速验证某个模型是否正常工作
- 给同事演示 Ollama 的效果
- 在服务器上临时查个东西(没有安装 SSH 终端)
- 开发调试时快速测试 API 返回格式
不适合的场景:
- 作为团队的主要交互界面(功能太简陋)
- 需要 RAG 或文档上传能力
- 需要保存对话历史或做用户管理
- 生产环境面向最终用户
与 Open WebUI 的选择建议
决策流程图:
你需要 Web UI 吗?
│
├─ 否 → 终端/API 就够了,不需要这一章的内容
│
├─ 是 → 是个人使用还是团队使用?
│
│ ├─ 个人使用 →
│ │ ├─ 只是偶尔测试?
│ │ │ └─ Ollama 内置 WebUI(零配置)
│ │ └─ 日常主力工具?
│ │ └─ Open WebUI(功能更全)
│ │
│ └─ 团队使用 / 面向用户 →
│ └─ Open WebUI + Nginx 反代(唯一选择)
│
└─ (结束)本章小结
这一节介绍了 Ollama 内置的 Web 界面:
- 访问地址就是
http://localhost:11434——Ollama 服务地址本身就是一个简易 Web 页面 - 零配置、零依赖——不需要 Docker、pip install 或任何额外操作
- 功能覆盖基本需求:模型选择、对话、流式输出、模型管理
- **定位是"快速测试工具"**而非"完整产品"——适合个人开发阶段
- 如果需要 RAG、多用户或更丰富的功能,请升级到 Open WebUI
下一节我们将快速浏览整个第三方工具生态。