国产AI大模型DeepSeek的本地化部署
- 介绍
- 网页版/APP
- 网页版
- APP/小程序
- API调用(硅基流动为例)
- 本地化部署(Ollama为例)
- 安装Ollama
- 下载DeepSeek模型
- 配置可视化交互工具
- 本地化部署的进阶应用
介绍
1月20,DeepSeek (全称,杭州深度求索人工智能基础技术研究有限公司) 正式发布DeepSeek-R1模型,这位AI界的"后起之秀"似乎在一夜之间成了科技圈的"网红",一度登顶苹果美国地区应用商店免费App下载排行榜。
DeepSeek官网地址是:https://www.deepseek.com/
网页版/APP
网页版
1.登录官网(https://chat.deepseek.com/)后直接注册使用。
2.输入用户名和密码,点击【登录】按钮。
3.输入待咨询的问题。
APP/小程序
应用商店直接搜索"DeepSeek-AI 智能对话助手"下载,或在微信小程序搜索"deepseek"。
- 深度思考模式:自动生成复杂问题的推理过程。
- 联网搜索:实时获取最新资讯,结合模型生成答案。
- 文件解析:支持上传文档或图片,提取内容并分析。
API调用(硅基流动为例)
1.登录网站 https://cloud.siliconflow.cn ,注册账号,然后打开"模型广场",找到DeepSeek R1,复制"deepseek-ai/DeepSeek-R1"。
2.打开API Key页面: https://cloud.siliconflow.cn/account/ak 。
3.新建API密钥。
4.Cherry Studio 添加模型。
打开 Cherry Studio,点击设置,选择“模型服务-硅基流动”,输入复制的API密钥,添加模型。
5.模型配置完成后,回到主页,即可在对话界进行问答。
本地化部署(Ollama为例)
安装Ollama
Ollama是专为本地运行大模型设计的开源工具,支持Windows、macOS、Linux系统。
-
访问官网(https://ollama.com/),下载对应系统的安装包。
-
双击安装后,在终端输入"ollama help"验证安装成功。
下载DeepSeek模型
根据硬件配置选择模型参数(显存要求参考):
操作步骤如下:
-
在ollama搜DeepSeek,选择deepseek-r1,根据配置条件选择不同参数的模型,大部分普通电脑都是1.5B或者7B,选择适配的模型版本复制对应代码。
-
在终端电脑主页,同时按住win+R键,输入cmd,然后粘贴命令(1.5B版本) “ollama run deepseek-r1:1.5b”,按回车,系统会自动下载安装deepseek模型。
下载安装Ollama请参考:https://blog.csdn.net/muriyue6/article/details/145498021
-
安装完成后,输入"ollama list",就可以查看安装的模型。
配置可视化交互工具
为提升体验,推荐使用图形化工具Chatbox、Cherry Studio,在此以Cherry Studio为例进行说明。
- 下载Cherry Studio客户端,安装后进入设置,配置Ollama 安装过的模型。默认API:http://localhost:11434/v1,添加模型名。
Cherry Studio官网地址:https://cherry-ai.com/
下载Cherry Studio客户端请参考:https://blog.csdn.net/muriyue6/article/details/145496811
本地化部署的进阶应用
- AI编程助手
在VS Code中安装Continue插件,配置DeepSeek模型,实现代码自动补全与调试。 - 私有知识库
使用anythingLLM或向量数据库+RAG技术,构建本地知识库,解决合规性问题。 - API集成
通过Python调用本地模型接口,嵌入自有系统。
from ollama import chatresponse = chat(model='deepseek-r1:7b', messages=[{'role':'user', 'content':'问题'}])