我在学习使用时,很迷惘各个模型放在什么 位置。以及他们的作用。所以系统的了解了一下。然后记录了,一下,希望能帮助到想了解这个知识的朋友。
另外,我将持续的更新这个专辑。记录我在学习和使用过程中关于comfy的方面。希望得到你的关注。及关注这个专辑。
因本地显卡6G 小,所以只能从小的方面入手。
另外,移动模型到相应文件夹后,必要时,重启comfyui.
老时出错,建议使用
或
1.使用 1-dev 模型,下载地址
魔搭社区
安装位置 unet
必须使用 对应的vae
对于 Flux1 dev 对应的 VAE 模型,你需要下载 `ae.safetensors` 文件,并将其放置在 `ComfyUI/models/vae` 目录下,建议重命名为 `flux_ae.safetensors`。
具体步骤如下:
1. 下载 Flux1 dev 模型,并将模型文件放置在 `ComfyUI/models/unet` 目录下。
2. 下载 VAE 模型 `ae.safetensors`,并放在 `ComfyUI/models/vae` 目录下,建议重命名为 `flux_ae.safetensors`。确保所有模型文件都正确放置后,你就可以运行相应的工作流了。
2.fp8模型:flux1 dev fp8
对于 Flux1 dev fp8 模型的本地安装位置,以下是具体的放置路径:
1. **大模型文件(flux1-dev-fp8)**:下载的 `flux1-dev-fp8.safetensors` 文件应放置在 `ComfyUI/models/unet/` 目录下。
2. **CLIP 模型文件**:下载的 `t5xxl_fp8_e4m3fn.safetensors`(或 `t5xxl_fp16.safetensors`,根据显存选择)和 `clip_l.safetensors` 文件应放置在 `ComfyUI/models/clip/` 目录下。
3. **VAE 模型文件**:下载的 `ae.safetensors` 文件应放置在 `ComfyUI/models/vae/` 目录下。
请确保所有下载的模型文件都放置在正确的目录中,以便 ComfyUI 能够正确加载和使用这些模型。
3.flux1 schnell fp8
支持四步成图,速度快。
对于 Flux1 Schnell FP8 模型的本地安装,你需要将下载的模型文件放置在以下位置:
1. **大模型**:将 `flux1-schnell-fp8.safetensors` 文件放置在 `ComfyUI/models/unet/` 目录下。
2. **VAE 模型**:下载 `ae.safetensors` 文件,并放置在 `ComfyUI/models/vae/` 目录下。
3. **CLIP 模型**:下载 `t5xxl_fp8_e4m3fn.safetensors` 和 `clip_l.safetensors` 文件,放置在 `ComfyUI/models/clip/` 目录下。确保所有模型文件都正确放置后,你就可以运行相应的工作流了 。
4.nf4模型,整合了vae clip
位置:checkpoints
需要:nf4模型加载节点。
对于 Flux NF4 模型,主要有以下几种:
1. **Flux.1 Dev BNB NF4 V1**
2. **Flux.1 Dev BNB NF4 V2**(推荐使用此版本,效果更好)
### 本地安装位置
将下载的模型文件放置在以下目录中:
- **大模型文件**:将 `flux1-dev-bnb-nf4-v2.safetensors` 文件放置在 `ComfyUI/models/checkpoints/` 目录下。
- **插件**:需要安装 `ComfyUI_bitsandbytes_NF4` 插件,确保模型能够正常加载。
确保所有文件都正确放置后,你就可以在 ComfyUI 中使用这些 NF4 模型了。
5.gguf,根据显存选择
位置:checkpoints
Flux GGUF 模型有多个版本,以下是一些主要的模型及其安装位置:
1. **Flux.1 Dev GGUF**:这是 Flux 的一个主要 GGUF 版本模型。
2. **Flux.1 Schnell GGUF**:这是蒸馏版模型的量化版本,适合显存较小的用户。
3. **Flux.1 Fill GGUF**:用于局部重绘的模型。
4. **Flux.1 Canny GGUF**:用于边缘检测的模型。
5. **Flux.1 Depth GGUF**:用于深度图控制的模型。### 本地安装位置
- **GGUF 模型文件**:下载的 `.gguf` 文件应放置在 `ComfyUI/models/unet` 目录中。
- **T5-XXL 编码器模型**:量化的 T5-XXL 模型应放置在 `ComfyUI/models/clip` 目录中。
- **VAE 模型文件**:`ae.safetensors` 文件应放置在 `ComfyUI/models/vae` 目录中,并建议重命名为 `flux_ae.safetensors`。请确保所有模型文件都正确放置后,你就可以在 ComfyUI 中使用这些 GGUF 模型了。
使用记录:
6.使用flux模型时要用到clip模型
位置:clip
对于 Flux CLIP 模型,主要有以下几种:
1. **clip_l.safetensors**:这是标准的 CLIP 模型,适用于大多数情况,尤其是在需要高质量文本到图像的转换时。
2. **t5xxl_fp16.safetensors**:适合于具有 32GB 以上内存的系统,提供更高的性能和质量。
3. **t5xxl_fp8_e4m3fn.safetensors**:适合于显存较小(低于 32GB)的系统,能有效减少内存使用。### 本地安装位置
将这些模型文件放置在以下目录中:- **CLIP 模型文件**:将 `clip_l.safetensors`、`t5xxl_fp16.safetensors` 或 `t5xxl_fp8_e4m3fn.safetensors` 文件放置在 `ComfyUI/models/clip` 目录下。
### 使用场景
- **clip_l.safetensors**:用于一般的图像生成任务,适合大多数用户。
- **t5xxl_fp16.safetensors**:在高性能计算环境中使用,适合需要处理复杂任务的用户。
- **t5xxl_fp8_e4m3fn.safetensors**:当系统内存有限时使用,能够有效降低显存占用,同时保持较好的生成质量。确保所有模型文件都正确放置后,你就可以在 ComfyUI 中使用这些 CLIP 模型了。
以上,总会出现不一样的各类错误,自行调整即可。
不知怎么回事。