欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 家装 > 240708_昇思学习打卡-Day20-MindNLP ChatGLM-6B StreamChat

240708_昇思学习打卡-Day20-MindNLP ChatGLM-6B StreamChat

2024/10/24 7:33:01 来源:https://blog.csdn.net/weixin_66378701/article/details/140282593  浏览:    关键词:240708_昇思学习打卡-Day20-MindNLP ChatGLM-6B StreamChat

240708_昇思学习打卡-Day20-MindNLP ChatGLM-6B StreamChat

基于MindNLP和ChatGLM-6B实现一个聊天应用,本文进行简单记录。

环境配置

%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14

配置网络线路

!export HF_ENDPOINT=https://hf-mirror.com

代码开发

# 导入自动模型和自动分词器类,用于序列到序列的语言模型任务
from mindnlp.transformers import AutoModelForSeq2SeqLM, AutoTokenizer
# 导入Gradio库,用于构建交互式用户界面
import gradio as gr
# 导入mdtex2html模块,可能用于将markdown格式的文本转换为HTML
import mdtex2html# 初始化一个预训练的序列到序列语言模型,这里使用的是ChatGLM-6B模型
# 从预先定义的URL加载模型,使用modelscope镜像加速下载
model = AutoModelForSeq2SeqLM.from_pretrained('ZhipuAI/ChatGLM-6B', mirror="modelscope").half()
# 设置模型为评估模式,禁用dropout等训练时使用的策略
model.set_train(False)# 初始化与模型配套的分词器,同样从预先定义的URL加载,使用modelscope镜像
tokenizer = AutoTokenizer.from_pretrained('ZhipuAI/ChatGLM-6B', mirror="modelscope")

可以修改下列参数和prompt体验模型

# 初始化对话提示
prompt = '你好'# 初始化对话历史记录
history = []# 调用模型进行对话,使用tokenizer对输入进行处理
# max_length限制了生成的回复的最大长度
response, _ = model.chat(tokenizer, prompt, history=history, max_length=20)# 输出模型生成的回复
response

打卡图片

在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com