欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 养生 > 【DeepSeek】私有化本地部署图文(Win+Mac)

【DeepSeek】私有化本地部署图文(Win+Mac)

2025/2/10 6:52:03 来源:https://blog.csdn.net/libusi001/article/details/145431054  浏览:    关键词:【DeepSeek】私有化本地部署图文(Win+Mac)

目录

一、DeepSeek本地部署【Windows】

1、安装Ollama

2、配置环境变量

3、下载模型

4、使用示例

a、直接访问

b、chatbox网页访问

二、DeepSeek本地部署【Mac】

1、安装Ollama

2、配置环境变量

3、下载模型

4、使用示例

5、删除已下载的模型

三、DeepSeek其他

1、各个蒸馏版本对应硬件配置参考

2、DeepSeek-V3的综合能力

3、DeepSeek-个人知识库


一、DeepSeek本地部署【Windows】

1、安装Ollama

Ollama官网Ollama

2、配置环境变量

OLLAMA_HOST 0.0.0.0
OLLAMA_ORIGINS*

3、下载模型

4、使用示例

a、直接访问

b、chatbox网页访问

Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载


二、DeepSeek本地部署【Mac】

1、安装Ollama

2、配置环境变量

launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"

还是不成功的请访问chatbox的帮助

直达链接:

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题

3、下载模型

4、使用示例

总的来看,一般电脑比较适合部署14b版本,也算能用,毕竟是蒸馏版本,参数量在这放着呢,虽然是蒸馏版本,但也基本都保留了核心的推理能力。

如果想跑更高版本的,硬件配置很多人吃不消的,个人的建议14b玩玩就行了。

专业可靠的还得是官方的满血版本,硬件配置要求太高了。

有台式机可以搞到128G运存的,可以尝试下32b/70b的版本的。

5、删除已下载的模型

1.进入 cmd 
2.查看已经部署的模型,输入:ollama list
3. 删除指定的模型: ollama rm deepseek -r1:70b

三、DeepSeek其他

1、各个蒸馏版本对应硬件配置参考

模型版本CPU要求内存要求硬盘要求显卡要求适用场景
DeepSeek-R1-1.5B最低4核,推荐Intel/AMD多核处理器8GB+3GB+非必需,若需GPU加速,可选4GB+显存(如GTX 1650)低资源设备部署等场景
DeepSeek-R1-7B8核以上,推荐现代多核CPU16GB+8GB+推荐8GB+显存(如RTX 3070/4060)本地开发测试等场景
DeepSeek-R1-8B与7B相近,略高10-20%与7B相近,略高10-20%与7B相近,略高10-20%与7B相近,略高10-20%需更高精度的轻量级任务
DeepSeek-R1-14B12核以上32GB+15GB+16GB+显存(如RTX 4090或A5000)企业级复杂任务
DeepSeek-R1-32B16核以上(如AMD Ryzen 9或Intel i9)64GB+30GB+24GB+显存(如A100 40GB或双卡RTX 3090)高精度专业领域任务
DeepSeek-R1-70B32核以上服务器级CPU128GB+70GB+需多卡并行(如2x A100 80GB或4x RTX 4090)科研机构等高复杂度生成任务

2、DeepSeek-V3的综合能力

3、DeepSeek-个人知识库


有用请点赞,养成良好习惯!

疑问、交流、鼓励请留言!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com