欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 时评 > 本地安装deepseek大模型,并使用 python 调用

本地安装deepseek大模型,并使用 python 调用

2025/4/1 4:27:34 来源:https://blog.csdn.net/Tiantangbujimo7/article/details/146447025  浏览:    关键词:本地安装deepseek大模型,并使用 python 调用

首先进入 ollama 官网

https://ollama.com/

在这里插入图片描述

点击下载
在这里插入图片描述
下载完成后所有都是下一步,就可以
点击搜索 Models

https://ollama.com/search

在这里插入图片描述
然后点击下载:
在这里插入图片描述
选择后复制:

ollama run deepseek-r1:32b

在这里插入图片描述
例如:
在这里插入图片描述
让它安装完成后:
在这里插入图片描述

ollama list
ollama run deepseek-r1:32b

vscode 进行python编程

C:\Users\admin>python
Python 3.11.9 (tags/v3.11.9:de54cf5, Apr  2 2024, 10:12:12) [MSC v.1938 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> exit()安装 openai 包
pip install openai 

检查 ollama 状态:

http://127.0.0.1:11434/

在这里插入图片描述
参照文档:

https://github.com/ollama/ollama/blob/main/docs/openai.md

编写 python 代码:
注意: model=‘deepseek-r1:32b’, 这里一定和你用 ollama 用 list 里面看到的一样

from openai import OpenAI  
client = OpenAI(base_url='http://localhost:11434/v1/',# required but ignoredapi_key='ollama',
)chat_completion = client.chat.completions.create(messages=[{'role': 'user','content': '你是谁',}],model='deepseek-r1:32b',
)# 使用示例
if __name__ == "__main__":txtcontent = chat_completion.choices[0].message.contentprint(txtcontent)

输出:

<think></think>您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽 
我所能为您提供帮助。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词