欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 新车 > ubuntu部署ollama+deepseek+open-webui

ubuntu部署ollama+deepseek+open-webui

2025/4/17 13:55:59 来源:https://blog.csdn.net/weixin_42112831/article/details/146991395  浏览:    关键词:ubuntu部署ollama+deepseek+open-webui

ubuntu部署ollama+deepseek+open-webui

全文-ubuntu部署ollama+deepseek+open-webui

大纲

  1. Ollama部署
    • 安装Ollama:使用命令apt install curlcurl -fsSL https://ollama.com/install.sh | sh ollama-v
    • 网络访问配置:设置环境变量OLLAMA_HOST=0.0.0.0:11434,并刷新和重启服务
    • 修改模型默认存储目录:设置环境变量OLLAMA_MODELS=/xxx/models,并刷新和重启服务
  2. Deepseek模型部署
    • 在线安装:使用命令ollama pull deepseek-r1:1.5b
    • 离线导入:从Ollama官网下载Deepseek-r1,模型描述文件目录为/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library,模型目录为/usr/share/ollama/.ollama/models/blobs
    • 模型运行测试:使用命令ollama list查看已安装模型,使用ollama run deepseek-r1:1.5b进行控制台交互
    • Ollama API调用方式:使用Curl命令调用API,例如curl http://<ip>:11434/api/chat
  3. Open-WebUI部署
    • 依赖环境:包含Python3.11、数据库等
    • Docker部署:运行官方推荐的Docker命令,例如docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always <镜像名>
    • 网络设置失败处理:在低版本操作系统和内核中,网络模式改为--network host
    • 配置Ollama模型连接:在Open-WebUI中设置Ollama的URL连接,配置完成后选择模型进行对话

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词