知识库
Ollama Open WebUI
2026-04-20

安装

1. Docker 安装

如果 Ollama 已安装了,使用以下语句:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如使用 Nvidia GPU 支持运行 Open WebUI:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda



2. Open WebUI 与 Ollama 捆绑安装

此安装方法使用一个单一的容器镜像,将 Open WebUI 与 Ollama 捆绑在一起。

启用 GPU 支持:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

仅使用 CPU:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两个语句都可以简化安装过程,让 Open WebUI 和 Ollama 无缝运行。

安装完成后,可以通过访问 http://localhost:3000 使用 Open WebUI。