安装
1. Docker 安装
如果 Ollama 已安装了,使用以下语句:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如使用 Nvidia GPU 支持运行 Open WebUI:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
2. Open WebUI 与 Ollama 捆绑安装
此安装方法使用一个单一的容器镜像,将 Open WebUI 与 Ollama 捆绑在一起。
启用 GPU 支持:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
仅使用 CPU:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个语句都可以简化安装过程,让 Open WebUI 和 Ollama 无缝运行。
安装完成后,可以通过访问 http://localhost:3000 使用 Open WebUI。
Ollama Open WebUI
2026-04-20