欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 明星 > Ubuntu环境基于Ollama部署DeepSeek+Open-Webui实现本地部署大模型-无脑部署

Ubuntu环境基于Ollama部署DeepSeek+Open-Webui实现本地部署大模型-无脑部署

2025/4/4 10:20:31 来源:https://blog.csdn.net/weixin_44137464/article/details/146907075  浏览:    关键词:Ubuntu环境基于Ollama部署DeepSeek+Open-Webui实现本地部署大模型-无脑部署

Ollama介绍

Ollama是一款简单好用的模型部署工具,不仅可以部署DeepSeek,市面上开源模型大部分都可以一键部署,这里以DeepSeek为例
官网
在这里插入图片描述
DeepSeek
在这里插入图片描述
版本硬件要求
在这里插入图片描述

安装Ollama

环境

sudo apt update
sudo apt install curl
sudo apt install lsof
1.命令一键安装

在官网点击下载可以看到推荐的就是命令安装,根据需要选择系统版本
但是由于是外网地址会下载的非常慢,如果网络环境支持,首选命令行安装,简单方便
在这里插入图片描述

curl -fsSL https://ollama.com/install.sh | sh
2.压缩包安装

在网络环境不允许,或者下载太慢的情况下,可以选择压缩包安装
压缩包安装需要注意会有一些坑,命令行直接安装会自动匹配,不需要考虑架构问题
这里主要以linux系统为例子,系统架构会有很多版本主要 X86,ARM等等
这里需要先通过命令查看自己的系统架构版本
参考官方文档

sudo uname -m

我这里就是arm的架构
在这里插入图片描述
arm版本下载路径

curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz

amd /x86 版本

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

上面得解压路径一般官方文档是放在usr/bin ,amd版本一般放在/usr/local/bin 根据自己情况解压
解压之后可以在对应得路径看到一个ollama启动器文件
在这里插入图片描述
命令后台启动

/usr/bin/ollama serve &

启动报错可能是端口冲突,查看端口占用

sudo lsof -i :11434

在这里插入图片描述

kill -9 1234

编写自启动脚本

sudo vi /etc/systemd/system/ollama.service 
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=multi-user.target

如果没有ollama用户则创建用户

sudo groupadd -r ollama
sudo useradd -r -g ollama -s /sbin/nologin ollama
sudo mkdir -p /home/ollama/.ollama
sudo chown -R ollama:ollama /home/ollama/.ollama

重新加载 Systemd 配置

sudo systemctl daemon-reload

启用 Ollama 服务自启动

sudo systemctl enable ollama.service

启动/停止.重启 Ollama 服务

sudo systemctl start ollama.service
sudo systemctl stop ollama.service
sudo systemctl restart ollama.service

检查 Ollama 服务状态

sudo systemctl status ollama.service

查看最近的日志输出

sudo journalctl -u ollama.service

重启系统以验证自启动

sudo reboot

下载DeepSeek模型并启动

官网上不止有DeepSeek模型,市面上大部分开源模型都可以一键安装,这里只是以DeepSeek为例
在这里插入图片描述
选择想要部署的版本,复制对应的命令
在这里插入图片描述
版本命令

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

下载完成后会自动进入会话模式
在这里插入图片描述

ollama 常用命令

ollama --help  #查看帮助信息。
ollama serve  #启动 ollama 服务。
ollama create <model-name> [-f Modelfile]  #根据一个 Modelfile 文件导入模型。
ollama show <model-name:[size]>  #显示某个模型的详细信息。
ollama run <model-name:[size]>  #运行一个模型。若模型不存在会先拉取它。
ollama stop <model-name:[size]>  #停止一个正在运行的模型。
ollama pull <model-name:[size]>  #拉取指定的模型。
ollama push <model-name>  #将一个模型推送到远程模型仓库。
ollama list  #列出所有模型。
ollama ps  #列出所有正在运行的模型。
ollama cp <source-model-name> <new-model-name>  #复制一个模型。
ollama rm <model-name:[size]>  #删除一个模型。

Docker容器安装部署 Open-Webui

之所以选择Docker安装open-Webui,是因为简单方便.
除了Docker环境也可以通过编译的方式部署,但是过于复杂,各种环境需要安装Python3,ngode,js 等等一大堆,
Open-Webui官网
在这里插入图片描述

安装Docker容器

1.更新软件包

sudo apt update
sudo apt upgrade

2.安装依赖

sudo apt-get install ca - certificates curl gnupg lsb - release

3.添加 Docker 官方 GPG 密钥

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
sudo chmod a+r /etc/apt/keyrings/docker.gpg

4.添加 Docker 软件源

echo "deb [arch=$(dpkg --print - architecture) signed - by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

5.将当前用户添加到 docker 组

sudo usermod -aG docker $USER

6.安装 Docker

sudo apt - get install docker - ce docker - ce - cli containerd.io

7.启动 Docker

sudo systemctl start docker

8.验证 Docker 是否安装成功

sudo docker run hello - world
部署 Open-WebUI

1.拉取 Open WebUI 镜像

sudo docker pull ghcr.io/open - webui/open - webui:main

2.创建open-WebUi容器并运行

sudo docker run -d   --name open-webui   --restart always   -e OLLAMA_BASE_URL=http://10.1.18.122:11434  -v open-webui:/app/backend/data -p 3000:8080   ghcr.io/open-webui/open-webui:main

安装完成后OpenWebUI会自动连接已经运行的ollama服务中的DeepSeek服务
注意:
拉取open-webui镜像时可能会超时报错报错,以为官方地址是外网的
可以切换为国内镜像源

sudo vi /etc/docker/daemon.json

在文件中添加下面的配置

{"registry-mirrors": ["https://hub-mirror.c.163.com", "https://mirror.baidubce.com"]
}

重启docker服务

sudo systemctl restart docker

在这里插入图片描述
完毕!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词