欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 高考 > 【AI大模型】Ollama+OpenWebUI+llama3本地大模型

【AI大模型】Ollama+OpenWebUI+llama3本地大模型

2024/10/24 4:45:45 来源:https://blog.csdn.net/weixin_44702962/article/details/140969326  浏览:    关键词:【AI大模型】Ollama+OpenWebUI+llama3本地大模型

本地部署大模型

  • 0.引言
  • 1.部署安装
    • 1.1部署工具
    • 1.2 概念介绍
    • 1.3 ollama安装后的基本使用
    • 1.4 大模型权重下载
      • 1.4.1 ollama在线下载
      • 1.4.2 huggingFace下载大模型权重及如何使用ollama进行调用
  • 2.带有UI界面的使用
  • 3.参考

0.引言

(1)目的
本教程主要关于开源AI大模型部署在个人电脑上,能够让用户轻松在本地运行大模型,这里的本地既可以指完全杜绝网络的个人PC,也可以指能够进行网络连接的PC;
(2)部署后的使用预览
这里有两种使用方式,首先是cmd终端,其次是带有WebUI界面的;
在这里插入图片描述

cmd终端使用
在这里插入图片描述
在这里插入图片描述

1.部署安装

1.1部署工具

  • 大模型管理工具:ollama;
  • 大模型权重:ollama(在线下载),huggingFace权重(主要GGUF格式)
  • Web-UI(利用docker以及open-web-UI库进行web端使用大模型)

1.2 概念介绍

(1)什么是ollama以及ollama安装
重点是部署和管理,在这里插入图片描述
本教程环境为win11系统,ollama在win系统就跟安装软件一样,下载ollama.exe文件进行安装即可 win安装地址,这里需要说明的是ollama.exe默认只能安装在C盘,但调用的大模型权重文件位置可以放在其它盘(详见后续教程)。
在这里插入图片描述

1.3 ollama安装后的基本使用

安装完成后可以在cmd终端查看使用(类似docker使用一样)
在这里插入图片描述
指令说明

ollama -h		# 查看ollama帮助使用
ollama list    #查看已有大模型
ollama pull+大模型模型    #下载大模型
ollama run +大模型        # 运行大模型
ollama create +大模型配置文件  #ollama配置其它途径下载的权重文件,如huggingFace
ollama rm yi:8b        #卸载yi:8b大模型
ollama cp yi:   
#ctrl+d退出

1.4 大模型权重下载

常用的模型如llama3,通义千问(qwen)等部分模型权重可以通过两种方式下载:

  • ollama在线下载:ollama模型地址
  • huggingFace下载:huggingFace网站镜像,受限与国内网络,huggingFace需要梯子官网链接,这里的网站镜像功能跟官网一样,不需要梯子。

1.4.1 ollama在线下载

在ollama网站中models,利用cmd终端命令进行下载:ollama pull llama3:8b
在这里插入图片描述
在这里插入图片描述
下载完成后cmd终端查询已有大模型命令:ollama list
运行使用:ollama run llama3:8b

1.4.2 huggingFace下载大模型权重及如何使用ollama进行调用

(1)首先是模型权重下载
如何从hugging Face官网下载大模型权重,参考本链接教程:huggingFace模型权重下载教程
需要注意的是:推荐下载大模型格式为gguf或者GGUF,因此这里在搜索大模型时,最好加上gguf,如下图
在这里插入图片描述
(2)huggingFace下载的大模型如何配置使用
下载到本地的模型文件不能直接导入到Ollama,需要编写一个配置文件,随便起个名字,如config.txt,配置文件内容如下

# 主要是FROM需要改成自己从hugging face上面下载的路径
FROM "/Users/liaoxuefeng/llm/llama3-8b-cn-q6/Llama3-8B-Chinese-Chat.q6_k.GGUF"TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""SYSTEM """"""PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

最后cmd调用命令:
ollama create llama3-cn -f ./config.txt #即可将下载的模型导入ollama中

2.带有UI界面的使用

这里主要安装不管是大模型还是stableDiffusion文生图等常用的网页交互库:open-webUI
,安装webUI需要先安装docker ,然后利用docker安装webUI并运行。
(1)具体安装教程
参考链接教程的第3部分docker以及webUI安装
部署后使用:在docker 容器点击进入,见下图
在这里插入图片描述
(2)注意!!!
此外关于链接教程的3.4 离线部署部分重点!!!!

3.参考

(1)ollama的默认路径地址
在这里插入图片描述
(2)未完待续

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com