欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 焦点 > Ubuntu通过Ollama部署deepseek和千问

Ubuntu通过Ollama部署deepseek和千问

2025/3/13 6:24:05 来源:https://blog.csdn.net/jianglovehong/article/details/146152697  浏览:    关键词:Ubuntu通过Ollama部署deepseek和千问

一、准备文件

本地服务器是Ubuntu20.04,输入命令uname -a即可查看

部署方式有多样,点击Ollama访问官网

可复制命令直接粘贴下载,但是过程比较慢,所以我推荐下面这种方式

从githubReleases · ollama/ollama · GitHub上下载ollama的tar包进行解压,如图

二、安装Ollama

如果系统是x86_64的就选择amd64,下载完成后传到服务器上面进行解压,输入命令

sudo tar -zxf ollama-linux-amd64.tgz -C /usr/local

然后进行赋权

sudo chmod +x /usr/local/bin/ollama 

添加ollama用户

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

创建service文件(方便后面启动服务)

sudo vim /etc/systemd/system/ollama.service

service文件内容如下

[Unit]
Description=Ollama Service
After=network-online.target
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target

加载守护进程

sudo systemctl daemon-reload

启用

sudo systemctl enable ollama

验证

ollama -v

三、下载模型

1、deepseek

Ollama官网搜索deepseek r1

或者输入命令下载你想要的模型

ollama pull deepseek-r1:7bollama pull deepseek-r1:8bollama pull deepseek-r1:14bollama pull deepseek-r1:32bollama pull deepseek-r1:70bollama pull deepseek-r1:671b

 等待下载,如果到后面下载慢的话ctrl +c结束然后在继续下载速度就会变快

输入命令

ollama run deepseek-r1:7b

开始对话

2、千问

输入命令

ollama run qwen:7b

等待下载

开始对话

四、暴露11434端口服务

因为Ollama的11434端口默认是127.0.0.1:11434其它的电脑通过服务器IP去访问是不通的,有两个解决方案

1、在启动时设置为0.0.0.0启动

 

set OLLAMA_HOST=0.0.0.0 && ollama serve

2、修改service文件,增加环境为0.0.0.0在上述已经增加过了

修改配置文件需要重新加载守护进程然后重启服务(daemon-reload)

验证

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词