欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 会展 > 使用 Ollama 在 Windows 环境部署 DeepSeek 大模型实战指南

使用 Ollama 在 Windows 环境部署 DeepSeek 大模型实战指南

2025/2/8 12:39:28 来源:https://blog.csdn.net/qq_35578171/article/details/145459898  浏览:    关键词:使用 Ollama 在 Windows 环境部署 DeepSeek 大模型实战指南

文章目录

  • 前言
  • Ollama
    • 核心特性
  • 实战步骤
    • 安装 Ollama
    • 验证安装结果
    • 部署 DeepSeek 模型
      • 拉取模型
      • 启动模型
  • 交互体验
    • 命令行对话
    • 调用 REST API
  • 总结
  • 个人简介

前言

  • 近年来,大语言模型(LLM)的应用逐渐成为技术热点,而 DeepSeek 作为国产开源模型,凭借其高效的推理能力吸引了大量开发者。本文将详细讲解如何在 Windows 上,通过 Ollama 框架快速部署 deepseek-r1:1.5b 模型,实现本地化模型服务。

Ollama

  • Ollama 是一个开源工具,支持在本地一键运行、管理和优化大语言模型。
  • 官方地址:https://ollama.com

核心特性

  • 跨平台支持:Windows、macOS、Linux 全兼容。
  • 模型仓库:内置 Llama 2、Mistral、DeepSeek 等热门模型。
  • GPU 加速:自动调用 NVIDIA CUDA 提升推理速度。
  • REST API:提供标准化接口,便于集成到其他应用。

实战步骤

安装 Ollama

  • 打开 https://ollama.com/download 选中 Windows 版本进行下载安装:

验证安装结果

  • 使用命令 ollama --version 检测 Ollama 是否安装成功。

部署 DeepSeek 模型

拉取模型

  • Ollama DeepSeek 模型库提供多个 Distilled models,基于配置考虑选择 DeepSeek-R1-Distill-Qwen-1.5B

ollama pull deepseek-r1:1.5b

启动模型

ollama run deepseek-r1:1.5bTips:
直接执行 ollama run deepseek-r1:1.5b 会执行两条命令:
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b

交互体验

  • Ollama 运行支持命令行和API接口两种方式,参考文档:https://github.com/ollama/ollama

命令行对话

调用 REST API

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:1.5b","prompt": "如何学习Python?","stream": false
}'

总结

  • 本文详细讲解如何在 Windows 上,通过 Ollama 框架快速部署 deepseek-r1:1.5b 模型,实现本地化模型服务。但由于选择的模型较小以及没有GPU支持,表现效果和响应速度都有一定影响。

个人简介

👋 你好,我是 Lorin 洛林,一位 Java 后端技术开发者!座右铭:Technology has the power to make the world a better place.

🚀 我对技术的热情是我不断学习和分享的动力。我的博客是一个关于Java生态系统、后端开发和最新技术趋势的地方。

🧠 作为一个 Java 后端技术爱好者,我不仅热衷于探索语言的新特性和技术的深度,还热衷于分享我的见解和最佳实践。我相信知识的分享和社区合作可以帮助我们共同成长。

💡 在我的博客上,你将找到关于Java核心概念、JVM 底层技术、常用框架如Spring和Mybatis 、MySQL等数据库管理、RabbitMQ、Rocketmq等消息中间件、性能优化等内容的深入文章。我也将分享一些编程技巧和解决问题的方法,以帮助你更好地掌握Java编程。

🌐 我鼓励互动和建立社区,因此请留下你的问题、建议或主题请求,让我知道你感兴趣的内容。此外,我将分享最新的互联网和技术资讯,以确保你与技术世界的最新发展保持联系。我期待与你一起在技术之路上前进,一起探讨技术世界的无限可能性。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com