欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 社会 > FastGPT结合New-api,遍享各类大模型

FastGPT结合New-api,遍享各类大模型

2025/1/21 11:21:46 来源:https://blog.csdn.net/weixin_47115107/article/details/145215005  浏览:    关键词:FastGPT结合New-api,遍享各类大模型

​​欢迎关注【AI技术开发者】

上文中,我们成功搭建了FastGPT服务和New-api服务

我们现在需要配置New-api服务,使用New-api来同时使用多个厂商的大模型服务,如豆包、通义千问、混元、文心一言、Kimi等模型

 

首先,我们需要修改FastGPT容器的环境变量

OPENAI_BASE_URL = // New-api的服务地址,容器地址或外网地址都行
CHAT_API_KEY = // 访问Token

Token生成地址:

74a29fc97f444e618e18f2002e6780dd.png

注意修改额度,以防不够用

3da16ecd353a46d3af7c51ecae46f352.png

fe318f14b9624f69b3b814e00f920bff.png

然后修改FastGPT容器的config.json​文件中的llmModels​字段

这个是语言模型和视觉模型,按以下格式修改后放在这个文件里面

{"provider": "OpenAI", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other"model": "gpt-4o-mini", // 模型名(对应OneAPI中渠道的模型名)"name": "gpt-4o-mini", // 模型别名"maxContext": 125000, // 最大上下文"maxResponse": 16000, // 最大回复"quoteMaxToken": 120000, // 最大引用内容"maxTemperature": 1.2, // 最大温度"charsPointsPrice": 0, // n积分/1k token(商业版)"censor": false, // 是否开启敏感校验(商业版)"vision": true, // 是否支持图片输入"datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错"usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true)"usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true)"usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true)"usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true)"toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。)"functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式)"customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型"customExtractPrompt": "", // 自定义内容提取提示词"defaultSystemChatPrompt": "", // 对话默认携带的系统提示词"defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p)"fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens)},

model为New-api中的模型名称

name为自定义名称,自己认识就行

vision注意语言模型不支持图片输入

 

下面修改vectorModels​字段,部署向量模型(解析知识库需要用到)

按以下格式:

{"provider": "通义千问","model": "qwen-multimodal-embedding-v1", // 模型名(与OneAPI对应)"name": "通义千问-多模态向量", // 模型展示名"charsPointsPrice": 0, // n积分/1k token"defaultToken": 700, // 默认文本分割时候的 token"maxToken": 3000, // 最大 token"weight": 100, // 优先训练权重"defaultConfig": {}, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度)"dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到)"queryConfig": {} // 参训时的额外参数}

下面部署重排模型,对知识库搜索结果进行排序,这个用处不大

修改reRankModels​字段,按以下格式:

{"model": "qwen-gte-rerank", // 模型名称"name": "通义千问-重排", // 随意"charsPointsPrice": 0,"requestUrl": "new-api/v1/rerank","requestAuth": "安全凭证,已自动补 Bearer"}

 

全部修改完毕后,重启容器

进入web页面,看到

c5e00845ccd248c794e6fcf83f19b18f.png

即为接入成功

现在 我们创建一个应用 测试一下模型是否可用

79835033bb9c46849eb14a8866af9e43.png

​欢迎关注【AI技术开发者】

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com