# 安装

ollama + Open WebUI 本地部署 Llama3 8b
使用命令一键安装

https://blog.csdn.net/qq_53795212/article/details/139690567

1
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安装运行后进入 localhost:3000

还缺少 ollama 模型
去这里下载:https://ollama.com/download/windows
先安装,然后拉去模型
也就是执行 ollama run llama3.2

这里就不得不重新温习汇总一下 docker 命令了

# docker