跳转到内容

09-2 Ollama WebUI(官方)

内置 Web 界面

很多人不知道的是:Ollama 从某个版本开始内置了一个简单的 Web UI。你不需要安装任何额外的东西——只要 Ollama 服务在运行,打开浏览器就能用。

访问方式

bash
# 确保 Ollama 服务正在运行
ollama serve &

# 直接在浏览器中访问
open http://localhost:11434

你会看到一个简洁的界面,包含:

┌─────────────────────────────────────────────────────┐
│              Ollama (Built-in WebUI)              │
│                                                     │
│  ┌───────────────────────────────────────────┐   │
│  │  🤖 Ollama is running                  │   │
│  │     Version: 1.5.0                        │   │
│  └───────────────────────────────────────────┘   │
│                                                     │
│  Chat                                                │
│  ┌─────────────────────────────────────────────┐   │
│  │ Model: [qwen2.5:7b              ▼]       │   │
│  │                                             │   │
│  │ [Send a message...                    ]    │   │
│  │                                             │   │
│  │ [💬 Generate]                              │   │
│  └─────────────────────────────────────────────┘   │
│                                                     │
│  Models                                              │
│  ┌─────────────────────────────────────────────┐   │
│  │ Name          Size      Modified            │   │
│  │ qwen2.5:7b    4.3 GB    2024-12-15        │   │
│  │ llama3.1:8b   4.7 GB    2024-12-15        │   │
│  │ nomic-embed.. 274 MB   2024-12-10        │   │
│  └─────────────────────────────────────────────┘   │
│                                                     │
└─────────────────────────────────────────────────────┘

功能范围

官方 WebUI 的功能非常基础但足够日常使用:

功能支持情况说明
模型切换下拉选择已安装的任意模型
对话基本的多轮对话
流式输出实时显示生成过程
Markdown 渲染⚠️ 部分基本支持,代码块渲染有限
模型管理查看/删除模型、查看模型信息
参数调节不支持(需要通过 API 或 Modelfile)
RAG / 文件上传不支持
多用户不支持
历史记录⚠️ 仅当前会话刷新页面即丢失

适用场景与限制

适合的场景

  • 快速验证某个模型是否正常工作
  • 给同事演示 Ollama 的效果
  • 在服务器上临时查个东西(没有安装 SSH 终端)
  • 开发调试时快速测试 API 返回格式

不适合的场景

  • 作为团队的主要交互界面(功能太简陋)
  • 需要 RAG 或文档上传能力
  • 需要保存对话历史或做用户管理
  • 生产环境面向最终用户

与 Open WebUI 的选择建议

决策流程图:

你需要 Web UI 吗?

  ├─ 否 → 终端/API 就够了,不需要这一章的内容

  ├─ 是 → 是个人使用还是团队使用?

  │   ├─ 个人使用 → 
  │   │  ├─ 只是偶尔测试?
  │   │   │  └─ Ollama 内置 WebUI(零配置)
  │   │   └─ 日常主力工具?
  │   │       └─ Open WebUI(功能更全)
  │   │
  │   └─ 团队使用 / 面向用户 →
  │       └─ Open WebUI + Nginx 反代(唯一选择)

  └─ (结束)

本章小结

这一节介绍了 Ollama 内置的 Web 界面:

  1. 访问地址就是 http://localhost:11434——Ollama 服务地址本身就是一个简易 Web 页面
  2. 零配置、零依赖——不需要 Docker、pip install 或任何额外操作
  3. 功能覆盖基本需求:模型选择、对话、流式输出、模型管理
  4. **定位是"快速测试工具"**而非"完整产品"——适合个人开发阶段
  5. 如果需要 RAG、多用户或更丰富的功能,请升级到 Open WebUI

下一节我们将快速浏览整个第三方工具生态。

基于 MIT 许可发布