💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
- 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老
- 导航
- 檀越剑指大厂系列:全面总结 java 核心技术,jvm,并发编程 redis,kafka,Spring,微服务等
- 常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,typora 等
- 数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等
- 新空间代码工作室:提供各种软件服务,承接各种毕业设计,毕业论文等
- 懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作
- 数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂
非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨
博客目录
- 前言
- 1.客户端安装
- 2. MCP 服务器配置
- 2.1 MCP 远程服务配置
- 2.2 MCP 服务测试
- 2.3 MCP 本地服务测试
- 3.内网穿透远程访问
- 3.1 本地安装 ollama 与 qwen 模型
- 3.2 安装 cpolar 内网穿透
- 4. 配置公网地址
- 5. 创建固定公网地址
- 总结
前言
最近 AI 领域真是隔几天就有一个新热度,随着越来越多的使用 MCP 制作的 Agent 产品出现,MCP 这个新名词也频繁刷屏,有着大火的趋势,那么什么是 MCP 呢?
MCP 是一种接口协议,由 AI 大模型公司 Anthropic 在 2024 年 11 月推出,它的全称是 Model Context Protocol,即模型上下文协议!它是连接 API 和大模型的桥梁,通过 MCP,我们可以让 AI 模型能够用一种通用的语言和各种不同的工具与服务进行交流,比如浏览器,Excel 表格,网页截图等等。
恰好笔者最近使用的 Cherry Studio 客户端就支持 MCP 功能,今天就和大家分享一下如何在 Cherry Studio 中配置 MCP 服务器,并让 AI 自动工作,为你打造功能更强大的智能助手。而且结合 cpolar 内网穿透使用,还能轻松实现远程调用 AI 为你服务,无需公网 IP,二次部署大模型,也不用准备云服务器那么麻烦。
1.客户端安装
首先,我们需要访问 Cherry Studio 的 github 主页下载 Windows 版本客户端:
下载地址:https://github.com/CherryHQ/cherry-studio/releases
选择好安装位置后,即可快速安装:
安装后打开 Cherry Studio 客户端,可以看到界面非常简洁明了。
本例中使用的版本号为:V1.1.8
2. MCP 服务器配置
重启打开客户端后,点击设置-MCP 服务器,可以看到需要安装 UV 与 Bun 环境:
直接点击安装即可,一般情况安装成功后,这两个提示就不会显示了:
如果出现 UV 怎么都安装不上的情况,可能是目前这个提示有 BUG,先继续往下进行。
2.1 MCP 远程服务配置
接下来我们可以访问这个网站来搜索一些 MCP Server 进行测试:https://mcp.so/
这里以 fetch 这个能让 AI 抓取网页内容的服务为例,点开它:
在网页右侧能看到使用SSE URL 方式连接服务的代码:
复制代码中 URL 后的网址:https://router.mcp.so/sse/bw9c1pm8o377c8
现在我们回到 cherry studio 客户端的 mcp 服务器界面,点击添加服务器:
填写名称,类型,刚才复制的 URL 地址点击确定:
可以看到服务器添加成功的提示:
2.2 MCP 服务测试
首先我们要在客户端设置中配置模型服务,拿硅基流动的模型服务进行举例,点击底部的管理按钮,能看到这里有几十种大模型可以调用,我们要选择模型名称后带扳手图标的,即支持函数调用的模型。
详细的模型配置教程可以查看这篇文章:cherry studio 配置模型服务
现在我们回到客户端首页,点击添加助手或者使用默认助手都可以:
本例以使用默认助手为例演示,点击顶部的模型服务切换:
可以看到刚才添加的模型,选择它:
选择好模型后,在聊天框底部能看到 MCP 服务器图标和启动服务开关:
在使用服务前,我们需要把这个开关打开:(每次使用前都要检查一下是否开启)
好的,现在我们就可以在 Cherry Studio 中使用 MCP 服务让 AI 自动帮我们访问网页来替我们分析问题了:
可以看到,给出了问题的回复。如果你经过提问后,回复的是错误代码,那么有可能是因为你要求 MCP 服务访问的网站禁止 AI 抓取,可以换一个网站试试。
需要注意的是使用 SSE 类型的 MCP 服务器是运行在远程服务器上,优点是配置简单,无需复杂的本地环境搭建,即可快速上手。但因为是远程运行,它无法像 STDIO 那样直接访问本地资源。但在获取云端数据、调用在线 API 等方面,SSE 类型表现出色,能够为你提供丰富的外部信息支持。
2.3 MCP 本地服务测试
现在我们来演示一下,如何在添加服务器时使用 STDIO 类型进行配置,这一类型的优势是可以在本地运行 MCP 服务,能够直接访问本机文件和应用程序,实现 AI 与本地资源的深度融合。比如,你可以让 AI 直接读取本地的文档、表格,进行数据分析和内容提取;或者调用本地的绘图软件,根据你的描述生成相应的图像。但需要注意的是,使用 STDIO 类型需要提前配置好 Python 和 NodeJS 环境,以确保服务的稳定运行。
这里我们添加一个filesystem
服务的 MCP 工具进行 STDIO 类型的配置演示:
首先我们进入 MCP 服务配置,点击 NPX 包列表后边的搜索,输入@modelcontextprotocol/server-filesystem 进行搜索,然后点击添加服务器:
我们需要在弹出框中编辑服务器信息,大部分的内容都已经自动填好了,我们只需要在参数中添加你打算操作的目录地址即可,我这里以 D:\ai 路径为例,点击确定:(注意,每个参数需单独占一行)
可以看到服务器添加成功提示:
再次回到聊天助手界面,这次在聊天框底部的 MCP 服务器图标中,我们能看到在 fetch 服务下方新增了一个刚才添加的filesystem服务:
同样,在向 AI 提出要求前我们需要手动打开这个开关:
现在我让它帮我在刚才参数中给出的 D:\ai 路径下创建一个名为 mcp 学习笔记的 txt 格式文档:
访问这个路径,可以看到确实创建成功了:
现在,关于在 cherry studio 中使用SSE 类型和STDIO 类型配置 MCP 服务就介绍完了,大家可以根据自己的实际需求,在配置 MCP 服务时选择合适的类型。
3.内网穿透远程访问
现在我们已经能够使用 Cherry Studio 客户端中的 MCP 服务器功能来实现超多 AI 功能带来的便利,但是如果想实现不在同一网络环境下,也能随时随地在线使用 Cherry Studio 客户端远程调用本地部署的 AI 大模型来运行 MCP 服务,那就需要借助 cpolar 内网穿透工具来实现公网访问了!
在上边我们配置模型服务时,使用的是硅基流动的 API 秘钥调用的远程大模型来运行 MCP 服务,但是这个方便是需要根据提问回答消耗的 tokens 来计费的,如果想节省成本,那使用本地部署的大模型(需支持函数调用)是个不错的解决办法。而且结合 cpolar 内网穿透工具使用,还能轻松实现远程访问,无需二次部署,也无需公网 IP。
3.1 本地安装 ollama 与 qwen 模型
本例使用在本地安装好的 Ollama 和支持函数调用的 qwen2.5-coder:7b 大模型进行演示:
Windows 安装 Ollama 可以查看这篇文章:Windows 安装 Ollama
然后在 cmd 终端中执行下方命令安装并启动大模型:
ollama run qwen2.5-coder:7b
最后想要远程调用大模型,需要进行对 Ollama 进行一下环境变量设置。
打开 cmd 终端,执行下面两个命令:
setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"
然后再使用 cpolar 为它配置一个公网地址即可解决这个问题:
3.2 安装 cpolar 内网穿透
接下来介绍一下如何安装 cpolar 内网穿透,过程同样非常简单:
首先进入 cpolar 官网:cpolar 官网地址: https://www.cpolar.com
点击免费使用
注册一个账号,并下载最新版本的 cpolar:
登录成功后,点击下载 cpolar 到本地并安装(一路默认安装即可)本教程选择下载 Windows 版本。
4. 配置公网地址
cpolar 安装成功后,在浏览器上访问 http://localhost:9200,使用 cpolar 账号登录,登录后即可看到配置界面,结下来在 WebUI 管理界面配置即可。
接下来配置一下 本地 ollama 服务 的公网地址:
登录后,点击左侧仪表盘的隧道管理——创建隧道,
- 隧道名称:ollama1(可自定义命名,注意不要与已有的隧道名称重复)
- 协议:选择 http
- 本地地址:11434 (本地访问的地址)
- 域名类型:选择随机域名
- 地区:选择 China Top
隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是 http 和 https:
现在我们使用上面的任意一个公网地址,在其他电脑中的 Cherry Studio 客户端的 ollama 模型服务的 API 地址里粘贴:
点击下方管理,能看到刚才本地安装支持函数调用的 qwen2.5-coder:7b 模型,点击添加:
添加后,如果发现模型名称后边没有代表支持函数调用的扳手图标,我们可以点击添加后模型名称后的设置按钮,然后点击更多设置:
手动勾选这个模型支持函数调用:
确认勾选:
保存:
然后,我们同样打开 MCP 服务器,搜索@modelcontextprotocol/server-filesystem 这个服务,点击添加服务器:
这次我们在参数中,填写一个新的路径进行测试:
配置完毕,现在回到 cherry studio 的聊天助手界面,可以看到,我们使用 cpolar 内网穿透工具成功实现远程调用我们在另一台电脑上本地部署的 qwen2.5-coder:7b 大模型,并且能够使用 MCP 服务对 AI 进行提问:
可以看到,同样成功创建:
小结
如果我们需要长期异地使用 cherry studio 客户端远程访问本地部署的大模型运行 mcp 解决问题,由于刚才创建的是随机的地址,24 小时会发生变化。另外它的网址是由随机字符生成,不容易记忆。如果想把域名变成固定的二级子域名,并且不想每次都重新创建隧道来访问本地大模型,我们可以选择创建一个固定的公网地址来解决这个问题。
5. 创建固定公网地址
我们接下来为其配置固定的 HTTP 端口地址,该地址不会变化,无需像随机公网地址一样每天修改服务器地址。
配置固定 http 端口地址需要将 cpolar 升级到专业版套餐或以上。
登录 cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:
保留成功后复制保留成功的二级子域名的名称:csollama1,大家也可以设置自己喜欢的名称。
返回登录 Cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama1,点击右侧的编辑:
修改隧道信息,将保留成功的二级子域名配置到隧道中
- 域名类型:选择二级子域名
- Sub Domain:填写保留成功的二级子域名:csollama1
点击更新
(注意,点击一次更新即可,不需要重复提交)
更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:
最后,我们使用上面的任意一个固定公网地址,粘贴到 Cherry Studio 客户端的 ollama 模型服务的 API 地址里:
返回聊天助手界面,同样能看到在另一台电脑本地部署的 qwen2.5-coder:7b 模型,并使用 MCP 服务让 AI 远程帮你解决问题。
总结
通过以上步骤,我们实现了在 Windows 系统电脑上使用 Cherry Studio 客户端配置 MCP 服务,并使用 cpolar 内网穿透工具轻松实现在异地公网环境中也能使用远程访问本地部署的 AI 大模型来运行 MCP 服务解决问题,并为本地部署的服务配置固定不变的二级子域名公网地址的全部流程。
经过简单测试,Cherry Studio 这款好用的 AI 工具支持了 MCP 服务之后功能更强大了,而结合 cpolar 内网穿透工具实现远程调用则能更好的节约成本,提高效率。另外,Cherry Studio 针对个人用户免费,企业用户请联系官方合作。也非常期待 MCP 后续的发展,感谢您的观看,有任何问题欢迎留言交流。
觉得有用的话点个赞
👍🏻
呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍
🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙