欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 社会 > DeepSeek-R1本地化部署(Mac)

DeepSeek-R1本地化部署(Mac)

2025/3/9 10:40:40 来源:https://blog.csdn.net/kxiaozhuk/article/details/146089304  浏览:    关键词:DeepSeek-R1本地化部署(Mac)

一、下载 Ollama

本地化部署需要用到 Ollama,它能支持很多大模型。官方网站:https://ollama.com/

点击 Download 即可,支持macOS,Linux 和 Windows;我下载的是 mac 版本,要求macOS 11 Big Sur or later,Ollama是跳转到github去下载的,如果下载不了可能要借助科学上网。

下载的是个压缩包,直接双击就可以解压出Ollama.app,点击运行即可安装

安装成功之后,ollama会在后台运行,启动命令行,输入ollama

出现以上页面即表示安装成功

二、下载DeepSeek-R1

还是进入ollama.com的页面,点击Models

下载deepseek-r1,

deepseek-r1有很多个版本,1.5b,7b,8b,14b,32b,70b,671b,分别代表模型不同的参数数量。

  • B = Billion(十亿参数):表示模型的参数量级,直接影响计算复杂度和显存占用。
    • DeepSeek 1.5B:15亿参数(小型模型,适合轻量级任务)
    • DeepSeek 7B:70亿参数(主流规模,平衡性能与资源)
    • DeepSeek 70B:700亿参数(高性能需求场景)
    • DeepSeek 671B:6710亿参数(超大规模,对标PaLM/GPT-4)

每个版本对应所需的内存大小都不一样,如果你电脑运行内存为8G那可以下载1.5b,7b,8b的蒸馏后的模型;如果你电脑运行内存为16G那可以下载14b的蒸馏后的模型,我这里选择14b的模型。

使用ollama run deepseek-r1:14b 进行下载,在命令行里面输入:

ollama run deepseek-r1:14b

使用ollama list 查看是否成功下载了模型

输入ollama run deepseek-r1:14b运行模型,启动成功后,就可以输入我们想问的问题,模型首先会进行深度思考(也就是think标签包含的地方),思考结束后会反馈我们问题的结果。在>>>之后输入想要咨询的 问题,模型回答的速度取决电脑的性能。

使用快捷键Ctrl + d 或者在>>>之后输入 /bye即可退出对话模式。

## 删除模型
ollama rm deepseek-r1:14b
## 停止模型
ollama stop deepseek-r1:14b

三、web页面的访问

我们通过ollama下载模型后,可以在命令行使用deepseek了,但是命令行的形式还是有些不友好,我们可以借助chatBox,或者Open-WebUI,只要接入ollama的Api就可以使用了。

1、Open-WebUI

Open WebUI是一个可扩展、功能丰富、用户友好的自托管AI平台,旨在完全离线运行。它支持各种LLM运行程序,如Ollama和OpenAI兼容的API,内置RAG推理引擎,使其成为一个强大的AI部署解决方案,本地需要安装Python3(版本3.11~3.13以下)。

安装 Open-WebUI需要使用pip进行安装,安装需要一定时间

pip install open-webui
### 如网络太差,可以使用国内的镜像下载
pip install open-webui -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com

如果 pip 版本较低,可以更新下

python3 -m pip install --upgrade pip

使用如下命令启动open-webui服务,启动需要一定时间

open-webui serve

后使用浏览器输入http://127.0.0.1:8080/登录服务,注意端口的占用冲突,页面如下:

点击开始使用,第一次使用需要注册用户名、邮件以及密码,这都是存在本地的,可以放心填写。

注册完毕后,如果本地已经运行了deepseek-r1,它可以自动识别本地已经安装的deepseek r1大模型,

在对话框里面输入内容,即可与deepseek-r1展开对话

2、ChatBox

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。

我这里下载的mac版本,成功安装启动后,点击左下角的设置

模型提供方选择Ollama API

模型选择本地部署好的deepseek-r1:14b,点击保存,即可以开始对话

最后:蒸馏模型不同规格的选择,需要结合自己电脑的配置来选择,不合适的模型会导致电脑过载,对话回答的速度和效果问题都会很差。我电脑内存16GB,以为14b能扛得住,结果安装之后,对话巨慢!后面安装了8b,运行起来速度就快多了,但是通过页面的返回速度会变慢。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词