欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 时评 > Windows 下 Ollama 安装deepseek本地模型

Windows 下 Ollama 安装deepseek本地模型

2025/2/22 1:03:20 来源:https://blog.csdn.net/qq_30333063/article/details/145679443  浏览:    关键词:Windows 下 Ollama 安装deepseek本地模型

Windows 下 Ollama 安装deepseek本地模型

安装 Ollama

  1. 下载 Ollama
  • 下载链接:https://ollama.org.cn/download/windows

  • 下载完成后,按照提示进行安装。

  1. 安装过程
  • 安装完成后,安装页面会自动关闭,这是正常现象。

  • 接下来,我们需要修改环境变量。

  1. 设置环境变量
  • 使用以下命令在控制台中创建环境变量,修改后请记得终止相关进程:
setx OLLAMA_MODELS "D:\ollama_model"

  1. 常用环境变量参数

Ollama 安装完成后,建议设置以下环境变量参数以优化使用体验:

  • OLLAMA_MODELS:模型文件存放目录。默认目录为当前用户目录(Windows:C:\Users\%username%\.ollama\models,MacOS:~/.ollama/models,Linux:/usr/share/ollama/.ollama/models)。建议 Windows 用户修改为其他目录(如:D:\OllamaModels),以避免占用 C 盘空间。

  • OLLAMA_HOST:Ollama 服务监听的网络地址。默认为 127.0.0.1,如果允许其他设备访问(如局域网中的其他电脑),建议设置为 0.0.0.0

  • OLLAMA_PORT:Ollama 服务监听的默认端口。默认为 11434,如果端口冲突,可以修改为其他端口(如:8080)。

  • OLLAMA_ORIGINS:HTTP 客户端请求来源。可以设置为 *,表示允许所有来源。

  • OLLAMA_KEEP_ALIVE:模型加载到内存后的存活时间。默认为 5m(5 分钟),可以设置为 24h,表示模型在内存中保持 24 小时,以提高访问速度。

  • OLLAMA_NUM_PARALLEL:请求处理并发数量。默认为 1,可以根据实际情况调整。

  • OLLAMA_MAX_QUEUE:请求队列长度。默认为 512,超过队列长度的请求将被丢弃。

  • OLLAMA_DEBUG:输出 Debug 日志标识。开发阶段可以设置为 1,以便输出详细日志信息。

  • OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中的模型数量。默认为 1

安装本地模型

  1. 安装模型
  • 按下 Win + R,输入 cmd 打开命令提示符。

  • 执行以下命令安装模型:

ollama run deepseek-r1:1.5b
  • 等待安装完成后,即可开始使用模型。
  1. 使用模型
  • 安装成功后,输入问题即可获得模型的回答。

总结

通过以上步骤,您可以在 Windows 系统上成功安装并配置 Ollama,并加载本地模型进行使用。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词