欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 新闻 > 资讯 > flux模型的下载、配套及简易使用记录(ubuntu)

flux模型的下载、配套及简易使用记录(ubuntu)

2024/12/21 16:45:27 来源:https://blog.csdn.net/weixin_42771529/article/details/144575019  浏览:    关键词:flux模型的下载、配套及简易使用记录(ubuntu)

我在学习使用时,很迷惘各个模型放在什么 位置。以及他们的作用。所以系统的了解了一下。然后记录了,一下,希望能帮助到想了解这个知识的朋友。

另外,我将持续的更新这个专辑。记录我在学习和使用过程中关于comfy的方面。希望得到你的关注。及关注这个专辑。

因本地显卡6G  小,所以只能从小的方面入手。

另外,移动模型到相应文件夹后,必要时,重启comfyui.

老时出错,建议使用

1.使用 1-dev 模型,下载地址

魔搭社区

安装位置 unet

必须使用 对应的vae

对于 Flux1 dev 对应的 VAE 模型,你需要下载 `ae.safetensors` 文件,并将其放置在 `ComfyUI/models/vae` 目录下,建议重命名为 `flux_ae.safetensors`。

具体步骤如下:
1. 下载 Flux1 dev 模型,并将模型文件放置在 `ComfyUI/models/unet` 目录下。
2. 下载 VAE 模型 `ae.safetensors`,并放在 `ComfyUI/models/vae` 目录下,建议重命名为 `flux_ae.safetensors`。

确保所有模型文件都正确放置后,你就可以运行相应的工作流了。

2.fp8模型:flux1 dev fp8

对于 Flux1 dev fp8 模型的本地安装位置,以下是具体的放置路径:

1. **大模型文件(flux1-dev-fp8)**:下载的 `flux1-dev-fp8.safetensors` 文件应放置在 `ComfyUI/models/unet/` 目录下。

2. **CLIP 模型文件**:下载的 `t5xxl_fp8_e4m3fn.safetensors`(或 `t5xxl_fp16.safetensors`,根据显存选择)和 `clip_l.safetensors` 文件应放置在 `ComfyUI/models/clip/` 目录下。

3. **VAE 模型文件**:下载的 `ae.safetensors` 文件应放置在 `ComfyUI/models/vae/` 目录下。

请确保所有下载的模型文件都放置在正确的目录中,以便 ComfyUI 能够正确加载和使用这些模型。

3.flux1 schnell fp8

支持四步成图,速度快。

对于 Flux1 Schnell FP8 模型的本地安装,你需要将下载的模型文件放置在以下位置:

1. **大模型**:将 `flux1-schnell-fp8.safetensors` 文件放置在 `ComfyUI/models/unet/` 目录下。
2. **VAE 模型**:下载 `ae.safetensors` 文件,并放置在 `ComfyUI/models/vae/` 目录下。
3. **CLIP 模型**:下载 `t5xxl_fp8_e4m3fn.safetensors` 和 `clip_l.safetensors` 文件,放置在 `ComfyUI/models/clip/` 目录下。

确保所有模型文件都正确放置后,你就可以运行相应的工作流了 。

4.nf4模型,整合了vae clip

位置:checkpoints

需要:nf4模型加载节点。

对于 Flux NF4 模型,主要有以下几种:

1. **Flux.1 Dev BNB NF4 V1**
2. **Flux.1 Dev BNB NF4 V2**(推荐使用此版本,效果更好)

### 本地安装位置
将下载的模型文件放置在以下目录中:

- **大模型文件**:将 `flux1-dev-bnb-nf4-v2.safetensors` 文件放置在 `ComfyUI/models/checkpoints/` 目录下。
- **插件**:需要安装 `ComfyUI_bitsandbytes_NF4` 插件,确保模型能够正常加载。

确保所有文件都正确放置后,你就可以在 ComfyUI 中使用这些 NF4 模型了。

5.gguf,根据显存选择

位置:checkpoints

Flux GGUF 模型有多个版本,以下是一些主要的模型及其安装位置:

1. **Flux.1 Dev GGUF**:这是 Flux 的一个主要 GGUF 版本模型。
2. **Flux.1 Schnell GGUF**:这是蒸馏版模型的量化版本,适合显存较小的用户。
3. **Flux.1 Fill GGUF**:用于局部重绘的模型。
4. **Flux.1 Canny GGUF**:用于边缘检测的模型。
5. **Flux.1 Depth GGUF**:用于深度图控制的模型。

### 本地安装位置

- **GGUF 模型文件**:下载的 `.gguf` 文件应放置在 `ComfyUI/models/unet` 目录中。
- **T5-XXL 编码器模型**:量化的 T5-XXL 模型应放置在 `ComfyUI/models/clip` 目录中。
- **VAE 模型文件**:`ae.safetensors` 文件应放置在 `ComfyUI/models/vae` 目录中,并建议重命名为 `flux_ae.safetensors`。

请确保所有模型文件都正确放置后,你就可以在 ComfyUI 中使用这些 GGUF 模型了。

使用记录:

6.使用flux模型时要用到clip模型

位置:clip

对于 Flux CLIP 模型,主要有以下几种:

1. **clip_l.safetensors**:这是标准的 CLIP 模型,适用于大多数情况,尤其是在需要高质量文本到图像的转换时。
2. **t5xxl_fp16.safetensors**:适合于具有 32GB 以上内存的系统,提供更高的性能和质量。
3. **t5xxl_fp8_e4m3fn.safetensors**:适合于显存较小(低于 32GB)的系统,能有效减少内存使用。

### 本地安装位置
将这些模型文件放置在以下目录中:

- **CLIP 模型文件**:将 `clip_l.safetensors`、`t5xxl_fp16.safetensors` 或 `t5xxl_fp8_e4m3fn.safetensors` 文件放置在 `ComfyUI/models/clip` 目录下。

### 使用场景
- **clip_l.safetensors**:用于一般的图像生成任务,适合大多数用户。
- **t5xxl_fp16.safetensors**:在高性能计算环境中使用,适合需要处理复杂任务的用户。
- **t5xxl_fp8_e4m3fn.safetensors**:当系统内存有限时使用,能够有效降低显存占用,同时保持较好的生成质量。

确保所有模型文件都正确放置后,你就可以在 ComfyUI 中使用这些 CLIP 模型了。

以上,总会出现不一样的各类错误,自行调整即可。

不知怎么回事。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com