欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 文化 > DeepSeek本地部署

DeepSeek本地部署

2025/2/12 18:30:58 来源:https://blog.csdn.net/watson2017/article/details/145552482  浏览:    关键词:DeepSeek本地部署

Ollama

Ollama 是一个用于运行大型语言模型(如 Llama 3.3、DeepSeek-R1、Phi-4、Gemma 2 等)的框架,支持本地部署和使用。

源码地址:

https://github.com/ollama/ollama

Ollama 支持的模型库:

<
ModelParametersSizeDownload
DeepSeek-R17B4.7GBollama run deepseek-r1
DeepSeek-R1671B404GBollama run deepseek-r1:671b
Llama 3.370B43GBollama run llama3.3
Llama 3.23B2.0GBollama run llama3.2
Llama 3.21B1.3GBollama run llama3.2:1b
Llama 3.2 Vision11B7.9GBollama run llama3.2-vision
Llama 3.2 Vision90B55GBollama run llama3.2-vision:90b
Llama 3.18B4.7GBollama run llama3.1
Llama 3.1405B231GBollama run llama3.1:405b
Phi 414B9.1GBollama run phi4
Phi 3 Mini3.8B2.3GBollama run phi3
Gemma 22B1.6GBollama run gemma2:2b
Gemma 29B5.5GBollama run gemma2

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com