ubuntu部署ollama+deepseek+open-webui
全文-ubuntu部署ollama+deepseek+open-webui
大纲
- Ollama部署
- 安装Ollama:使用命令
apt install curl
和curl -fsSL https://ollama.com/install.sh | sh ollama-v
- 网络访问配置:设置环境变量
OLLAMA_HOST=0.0.0.0:11434
,并刷新和重启服务 - 修改模型默认存储目录:设置环境变量
OLLAMA_MODELS=/xxx/models
,并刷新和重启服务
- 安装Ollama:使用命令
- Deepseek模型部署
- 在线安装:使用命令
ollama pull deepseek-r1:1.5b
- 离线导入:从Ollama官网下载Deepseek-r1,模型描述文件目录为
/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library
,模型目录为/usr/share/ollama/.ollama/models/blobs
- 模型运行测试:使用命令
ollama list
查看已安装模型,使用ollama run deepseek-r1:1.5b
进行控制台交互 - Ollama API调用方式:使用Curl命令调用API,例如
curl http://<ip>:11434/api/chat
- 在线安装:使用命令
- Open-WebUI部署
- 依赖环境:包含Python3.11、数据库等
- Docker部署:运行官方推荐的Docker命令,例如
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always <镜像名>
- 网络设置失败处理:在低版本操作系统和内核中,网络模式改为
--network host
- 配置Ollama模型连接:在Open-WebUI中设置Ollama的URL连接,配置完成后选择模型进行对话