1、下载安装Ollama
前往下载页面
https://ollama.com/download
下载好安装包,如同安装软件一样,直接安装即可
win中默认为C盘,如果需要修改到其他盘,查找具体教程
运行list命令,检查是否安装成功
2、修改模型下载的位置
各种不同的模型往往占据空间更大,因此选择一个空间足够的位置非常有必要
退出Ollama,打开任务管理器,清除当前Ollama程序
选择合适位置,创建模型存储的目标文件夹
添加文件夹到环境变量中
变量名固定为,文件夹根据自己情况定
OLLAMA_MODELS
3、拉取、运行模型命令
打开powershell运行如下命令即可
ollama run deepseek-r1:1.5b
在命令 ollama run deepseek-r1:1.5b 中,1.5b 的部分代表的是模型的大小,具体来说:
- “b” 是 billion(十亿)的缩写。这里的 1.5b 表示模型的参数量大约为 1.5 billion(15亿)个参数。
- 这种命名方式通常用于区分不同大小的模型。例如,1.5b 就是一个包含 15 亿个参数的模型。
对于大规模深度学习模型来说,参数量的大小通常直接影响模型的性能和计算需求。不同大小的模型对应的 “b” 数字表示不同的参数量,这也反映出模型的容量和复杂度。
1、模型中的参数大小b越大更耗资源,
- 1.5b:表示模型有 15 亿个参数,通常是一个较大但相对轻量级的模型。
- 7b:表示模型有 70 亿个参数,参数越大,模型更强大、更复杂,性能更好,但计算成本和推理延迟也会增加。
- 13b、30b 等:参数数量进一步增加,代表更大的模型,这些模型的推理和训练可能需要更强的计算能力和更长的时间,但在一些任务上可能会表现得更加精确和复杂。
总结:
不同大小的 b 表示模型参数的数量,1.5b 代表 15 亿个参数的模型。参数越多,模型的计算能力通常越强,但对硬件的需求和推理速度也会有更大的影响。
2、不同大小参数需要的大致硬件配置
https://blog.csdn.net/2401_85343303/article/details/145452011
参考这个博客
这里使用最基础的1.5b来示例,也可以让更多的小伙伴体验到本地模型
3、拉取模型并运行
ollama run deepseek-r1:1.5b
有可能拉取服务包失败,经过检索是Ollama 的服务器故障,非常新鲜的故障
拉取模型清单:500 ·问题 #8873 ·OLLAMA/OLLAMA
https://github.com/ollama/ollama/issues/8873
等待Ollama服务恢复尝试,可以轻松拉取
也是开箱即用对,耐心等待拉取
等待拉取完成,即可进行对话
4、退出模型
ctrl+d来退出,或者使用命令 /bye
/bye
4、前端UI版
适合Ollama使用的前端有很多,经过筛选选择了极简的NextJS Ollama LLM UI
NextJS Ollama LLM UI 是专为 Ollama 设计的极简主义界面,适合追求简约风的小伙伴
https://github.com/jakobhoeg/nextjs-ollama-llm-ui
访问项目地址可以看到具体的使用步骤,也是开箱即用(需要简单的前端经验)
1、安装nvm
2、安装 Node.js (18+)
3、按照项目中的提示操作即可
这里需要注意下修改example.env to .env
.这个操作要保证Ollama的默认端口没有修改
然后就是前端固定的 install 、 run dev
启动前端ui,即可访问
http://localhost:3000/
选择具体模型,然后就可以使用了