Open WebUI

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容的 API。有关更多信息,请务必查看我们的 Open WebUI 文档

1.如何安装

1.1 使用默认配置进行安装

1.1.1 如果 Ollama 在您的计算机上

1.1.2 如果 Ollama 位于其他服务器上

1.1.3 要运行支持 Nvidia GPU 的 Open WebUI

1.2 仅供 OpenAI API 使用的安装

1.3 安装带有捆绑 Ollama 支持的 Open WebUI

1.3.1 使用 GPU 支持

1.3.2 仅限 CPU

2. 故障排除

2.1 Open WebUI: Server Connection Error

如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内的 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。在 docker 命令中使用 --network=host 标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:http://localhost:8080

命令示例

2.2 国内无法连接

如果国内无法访问 ghcr.io, 则可以使用 ghcr.nju.edu.cn 代替命令行里的 ghcr.io

3. 使 Docker 安装保持最新状态

如果您想将本地 Docker 安装更新到最新版本,您可以使用 Watchtower 进行更新:

参考链接:https://github.com/open-webui/open-webui

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部