ollama
# 安装
ollama + Open WebUI 本地部署 Llama3 8b
使用命令一键安装
https://blog.csdn.net/qq_53795212/article/details/139690567
1 | docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama |
安装运行后进入 localhost:3000
还缺少 ollama 模型
去这里下载:https://ollama.com/download/windows
先安装,然后拉去模型
也就是执行 ollama run llama3.2
这里就不得不重新温习汇总一下 docker 命令了