欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 美景 > 《DeepSeek核心技术原理和本地部署微调实操课程》

《DeepSeek核心技术原理和本地部署微调实操课程》

2025/2/12 19:11:42 来源:https://blog.csdn.net/starzhou/article/details/145579238  浏览:    关键词:《DeepSeek核心技术原理和本地部署微调实操课程》

大模型算法实战专家—周红伟老师

法国科学院数据算法博士/曾任阿里巴巴人工智能专家/曾任马上消费企业风控负责人

课程背景

随着人工智能技术的快速发展,智能助手(如DeepSeek-V3)在多模态理解、个性化交互、知识推理等领域的应用日益广泛。DeepSeek-V3作为深度求索公司推出的第三代智能助手,凭借其先进的核心技术(如大规模预训练、多模态理解、上下文感知等),在智能客服、内容创作、教育、医疗等领域展现了强大的潜力。

然而,要将DeepSeek-V3的能力充分发挥并应用于实际业务场景,不仅需要深入理解其核心技术原理,还需要掌握本地部署和微调的方法,以满足特定领域或企业的定制化需求。为此,本课程旨在帮助学员系统学习DeepSeek-V3的核心技术原理,并通过实操掌握本地部署和微调的技能,从而提升在实际项目中的应用能力。

课程收益

1. 深刻理解DeepSeek-V3的核心技术原理

  • 掌握DeepSeek-V3的架构设计、多模态理解、上下文感知、知识图谱等核心技术。
  • 掌握大规模预训练模型(如Transformer)的工作原理及其在DeepSeek-V3中的应用。

2. 掌握DeepSeek-V3的本地部署方法

  • 学习如何搭建适合DeepSeek-V3运行的本地环境(包括硬件配置、依赖库安装等)。
  • 掌握DeepSeek-V3的本地部署流程,包括模型加载、服务启动和接口调用。
  • 掌握如何优化部署性能,以支持高并发和低延迟的应用场景。

3. 学会DeepSeek-V3的微调与定制化

  • 掌握如何利用领域数据对DeepSeek-V3进行微调,以提升其在特定任务中的表现。
  • 学习微调过程中的关键技术,包括数据预处理、模型训练、参数调优等。

4. 提升实际项目中的应用能力

  • 通过实战案例,学习如何将DeepSeek-V3应用于智能客服、内容生成、知识问答等场景。

授课形式

理论讲解+案例实操+代码实战+课堂练习+实战演练+小组研讨+互动答疑

课程时间

2天

课程大纲

第一天课程:DeepSeek-V3/R1核心技术架构和训练过程

上午课程

第一部分 DeepSeek-V3的架构创新:训练GPU和成本均低,但效果卓越

1.1 V3风靡海内外的关键因素:训练成本极低、引领前沿创新

1.1.1 V3训练成本:所用的GPU训练资源仅为Llama 3.1 405B的差不多1/14

1.1.2 在国内也能引领世界级前沿

1.2 模型架构:MLA、负载均衡的MoE、Multi-Token预测

1.2.1 多头潜在注意力

1.2.2. 无辅助损失的负载平衡 DeepSeekMoE

1.2.3 多token预测:Multi-Token Prediction显著加快模型的解码速度

第二部分 DeepSeek-V3基础设施层面的创新:FP8 训练等

2.1 训练框架(含GPU的内部结构示意图)

2.1.1 双管道DualPipe与计算-通信重叠

2.1.2 跨节点全对全通信的高效实现:通过PXT连接CUDA和底层GPU硬件

2.1.3. 极致内存节省与最小开销

2.2 FP8训练:虽算的快 但精度不够,故需提高精度

2.2.1 混合精度框架

2.2.2. 通过量化和乘法提高精度

2.2.2 低精度存储和通信:降低内存和通信开销

2.3 推理与部署

2.3.1 预填充

2.3.2 解码

2.4 硬件设计建议

下午课程

第三部分 DeepSeek-V3的预训练与后训练

3.1 预训练

3.1.1 数据构建:提高数学、编程、多语言样本,最终14.8T语料

3.1.2 超参数

3.1.3 长上下文扩展

3.1.4 评估与讨论

3.2 训练后处理:透露了大半后来引爆全球的R1正式版训练流程

3.2.1 监督微调

3.2.2 强化学习:涉及奖励模型和GRPO

3.2.3 评估与讨论:关于DeepSeek-R1提炼与多token预测

第四部分 DeepSeek R1:如何通过纯RL训练大模型的推理能力

4.1 提出背景与相关工作

4.1.1 R1-Zero的提出背景:无需人类数据,从零实现自我迭代

4.1.2 R1的提出背景:解决Zero可读性差等问题

4.2 DeepSeek-R1-Zero:规则驱动的大规模RL训练,无冷启动、无SFT

4.2.1 RL算法GRPO:不需要critic

4.2.2 规则奖励建模(准确率奖励 + 格式奖励):不用训练专门的奖励模型RM

4.2.3 训练模板:通过prompt让Zero启动深度思考的推理模式

4.2.4 Zero的性能、自我进化过程和顿悟时刻

4.3 DeepSeek-R1:先冷启动数据SFT 再RL,之后再SFT 再RL

4.3.1 阶段一 冷启动(主要关注推理):通过R1-Zero生成数千条长CoT数据

4.3.2 阶段二 面向推理的GRPO RL:类似Zero的规则奖励,但增加语言一致性奖励

4.3.3 阶段三 V3上的的两轮SFT(结合rejection sampling):涉及80w通用层面的推理和非推理数据

4.3.4 阶段四 所有场景的RL:提高有用性和无害性,且混合规则奖励和偏好奖励

4.4 蒸馏:赋予小模型推理能力

4.5 一些经验总结:成功和失败的经验分析总结

第二天课程:DeepSeek本地部署和微调案例实操

上午课程

第五部分 本地部署准备工作:各个版本、推理框架、硬件资源

5.1 DeepSeek-R1的多个版本:加上2个原装671B的,总计8个参数版本

5.2 主流的大模型推理框架:分为PC端和Android端

5.3 不同参数的模型所要求的硬件

5.4 蒸馏版和满血版的两类部署

第六部分 通过Ollama、vLLM本地部署DeepSeek-R1蒸馏版:支持联网搜索及知识库问答

6.1 基于Ollama和各类插件构建智能对话:终端、open-webui(支持联网)、Chatbox

6.1.1 Ollama下的终端命令行交互

6.1.2 Ollama下的open-webui交互:基于docker安装,且支持联网搜索

6.1.3 基于Ollama + ChatBox部署deepseek-r1:7b

6.2 基于Ollama和Page Assist/AnythingLLM构建本地知识库问答系统

6.2.1 基于Ollama + Page Assist搭建本地知识库问答系统:且支持联网搜索

6.2.2 基于Ollama + AnythingLLM搭建本地知识库问答

6.3 通过vLLM推理deepseek-r1

6.3.1 基于vLLM的命令行交互——R1-Distill-Llama-8B

6.3.2 基于vllm + open WebUi 部署r1 7b

6.4 本地手机端部署DeepSeek-R1蒸馏Llama/Qwen后的版本

下午课程

第七部分 无蒸馏前提下本地部署R1 or R1-Zero 671B满血版

7.1 折中路径:无蒸馏但量化部署Deepseek-R1 671B满血版

7.1.1 本地CPU上运行 Deepseek-R1 的完整的硬件 + 软件设置

7.1.2 GPU上跑无蒸馏但量化的Deepseek-R1 671B满血版

7.2 企业级部署:无蒸馏不量化部署Deepseek-R1 671B满血版

专利和文献:

深度学习国际发明专利

1) 基于深度学习的图像检索方法及装置,专利公开公告号:CN107368614A。专利类型:发明公布。发明人:周红伟;李凯;任伟;李庆;郭奇杰;周杨;刘川郁

2) Simulation model and droplet ejection performance of a thermal-bubble microejector,Hongwei Zhou,A.M.Gué,Sensors and Actuators B: Chemical Volume 145,Issue 1,4 March 2010,Pages 311-319

3)Simulation Bubble Nucleation and Bubble Growth of a Thermal Bubble Microejector,Hongwei Zhou,A.M.Gué,Excerpt from the Proceedings of the COMSOL Conference 2009 Mila

图 深度学习国际发明专利

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com