欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 手游 > 一起学习大语言模型-常用命令及模型介绍

一起学习大语言模型-常用命令及模型介绍

2025/4/2 23:32:56 来源:https://blog.csdn.net/shuaixingrumo/article/details/146910764  浏览:    关键词:一起学习大语言模型-常用命令及模型介绍

文章目录

  • 如何下载模型
  • 常用模型介绍
  • 查看已下载的本地模型
  • 查看当前正在运行的模型
  • 更多的命令和环境变量查看

如何下载模型

通过ollama pull命令来下载需要的模型, 如:

ollama pull qwen2.5
ollama pull deepseek-r1
ollama pull deepseek-r1:671b

常用模型介绍

模型名大小模型介绍应用场景
codellama7b-70b代码生成与讨论模型,支持多语言代码任务软件开发、代码解释、编程辅助
deepseek-coder1.3b-33b基于 2 万亿代码和自然语言训练的编码模型,性能接近 GPT4-Turbo代码开发、算法实现、漏洞修复
gemma31b-27b单 GPU 运行的高性能模型,支持视觉任务图像识别、视觉问答、多模态交互
llama27b-70bMeta 开源基础模型,支持多任务通用场景对话系统、文本生成、知识问答
llama38b-70bMeta 最新开源模型,性能接近 405B 版本复杂推理、长文本处理、专业领域任务
llava7b-34b多模态模型(视觉 + 语言),支持图像理解与对话视觉问答、图文生成、跨模态交互
mistral7bMistral AI 发布的高效模型,更新至 0.3 版代码生成、数学推理、多语言支持
phi414b微软开源的 14B 参数模型,性能领先复杂推理、长文本理解、多语言任务
qwen2.50.5b-72b阿里巴巴训练的多语言模型,支持 128K 上下文窗口多语言对话、长文本处理、跨领域任务
stable-code3b轻量级代码模型,性能媲美 7B 模型代码补全、算法开发、低资源环境下的编码任务
vicuna7b-33b基于 Llama 的对话模型,支持 2K-16K 上下文窗口日常对话、客服系统、简单问答
wizardlm7b-8x22b微软优化的多语言模型,擅长复杂对话和推理专业领域问答、多语言支持、复杂逻辑处理

根据官方文档建议,运行模型需要的内存大小如下:

7b的模型需要至少8GB内存

13b的模型需要至少16GB内存

33b的模型需要至少32GB内存

一般我们本机学习开发的时候可以尝试使用这几种模型就基本够了, llama3.2:3b, qwen2.5:7b, llama3.2-vision:11b

查看已下载的本地模型

通过命令ollama list查看本地已下载的模型

查看当前正在运行的模型

通过命令ollama ps 查看当前正在运行的模型

更多的命令和环境变量查看

通过ollama -h查看支持的更多命令

通过ollama serve -h查看支持的环境变量配置

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词