Cherry Studio 介绍
Cherry Studio 是一个支持多模型服务的桌面客户端,为专业用户而打造,内置 30 多个行业的智能助手,帮助用户在多种场景下提升工作效率。
CherryStudio内置众多服务商
同时也支持其他兼容OpenAI/Anthropic等API格式的服务商接入。
官网:Cherry Studio - 全能的AI助手
Cherry Studio支持多种场景应用,不过还是有一些限制,比如画图只能调用硅基流动的服务。
特色功能:多模型对话,可以选中多个模型,对同一个问题进行回答,可以直接的横向对比模型效果。
Cherry Studio客户端下载安装
直接到官网下载:Cherry Studio 下载页面
然后安装即可。
运行后,需要配置各个模型秘钥。如果不想暴露自己的秘钥给Cherry,也可以选择本地模型部署,比如使用Ollama部署。
Ollama安装
Ollama可以直接安装,在Ubuntu下使用apt进行安装,在Windows下可以直接下载安装包进行安装。
Ollama的安装参考:
在Windows下安装Ollama并体验DeepSeek r1大模型_ollama-windows-amd64 下载-CSDN博客
使用Ollama 在Ubuntu运行deepseek大模型:以deepseek-r1为例_ubuntu deepseek-CSDN博客
cherry studio使用Ollama部署的配置
在模型服务中配置Ollama
启动Cherry后,先配置大模型。 配置模型需要点左下角的“设置”按钮,然后在“模型服务”里进行设置,比如设置Ollama本地模型。
因为是本地部署的Ollama,所以不需要api秘钥,但是需要设置一个api秘钥,随便输入字符串即可。选好模型,自动保存浩即可。
设置默认模型
先要需要通过Ollama下载模型,具体参考前面的Ollama安装部分。
然后设置默认模型,都选择deepseek-r1:1.5b。其它翻译模型(在Ollama平台中的)还没有找到,所以暂时也用deepseek模型。
使用chat测试助手
点最左上角的“助手”图标,创建一个新助手,或者使用默认的助手,第一行能力选择模型,选已经安装好的Ollama deepseek-r1:1.5b模型,然后测试一下:
测试通过,这样一个简单的助手就配置好了!
CherryStudio中使用nomic-embed-text配置本地知识库
参考:DeeepSeek+本地知识库,基于Cherry Studio和Ollama搭建-CSDN博客
多模型对话
先下载deepseek 1.5b和7b的模型
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:7b
助手chat中选择两个模型
点击页面下端的@符号,选中1.5b和7b两个模型,输入一个问题进行测试:
孙悟空和哪吒谁更厉害?
可以看到,显然7b更厉害,或者说正确一些。
当然deepseek-r1模型最厉害在于推理能力,1.5b模型较小,知识储备有些不足,由于知识错误,答案也就错的离谱,这种情况也是有情可原。
总体可以看到deepseek-r1模型非常优秀,如果它能结合ChatGLM3的优点,那就会更加了不起啦!