欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > 在CentOS服务器上部署DeepSeek R1

在CentOS服务器上部署DeepSeek R1

2025/2/6 9:45:26 来源:https://blog.csdn.net/qq_43806430/article/details/145420804  浏览:    关键词:在CentOS服务器上部署DeepSeek R1

在CentOS服务器上部署DeepSeek R1,并通过公网IP与其进行对话,可以按照以下步骤操作:

一、环境准备
系统要求:
CentOS 8+(需支持AVX512指令集)。
硬件配置:
GPU版本:NVIDIA驱动520+,CUDA 11.8+。
CPU版本:至少16核处理器,64GB内存。
存储空间:原始模型需要30GB,量化后约8-20GB。
安装基础工具:
更新系统并安装必要的编译工具:

一定要买GPU服务器。

sudo yum update -y
sudo yum install -y cmake g++ python3-devel

二、安装Ollama及DeepSeek R1模型
安装Ollama核心组件:
curl -fsSL https://ollama.com/install.sh | sh
这里的下载速度可能会特别慢,建议自己配hosts。

安装模型转换工具:

pip3.8 install llama-cpp-python[server] --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu

这一步可能依赖版本,g++版本不兼容一直导致报错,建议通过docker方式进行部署。
我自己用的是pip3.8,可根据pip版本自行调整。

下载DeepSeek R1原始模型:

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com