FLUX 模型的放置位置如下:
同时,以下模型也有对应的放置位置:
flux1-dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
FLUX.1[dev]FLUX.1[dev fp8]FLUX.1[schnell],选一个.建议选择dev版本的,显卡可以的用fp16,显卡不够用的选fp8.模型下载后,放入,这个文件应该放在你的:ComfyUI/models/unet/文件夹中。如果爆显存了,“UNET加载器”节点中的weight_dtype可以控制模型中权重使用的数据类型,设置为fp8,这将使显存使用量降低一半,但可能会稍微降低质量.默认下的weight_type,显存使用比较大.[heading4]clip[content]t5xxl_fp16.safetensors和clip_l.safetensors,放在ComfyUI/models/clip/文件夹里面.https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main可以使用t5xxl_fp8_e4m3fn.safetensors来降低内存使用率,但是如果你有超过32GB内存,建议使用fp16[heading4]Vae[content]下载后,放入ComfyUI/models/vae文件夹https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main[heading3]
BitsandBytes Guidelines and Fluxhttps://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981ComfyUI_bitsandbytes_NF4节点https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4flux1-dev-bnb-nf4.safetensors模型https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensorsESRGAN/4x_NMKD-Siax_200k.pth放大模型,这个模型放大后,对图片细节提示有帮助https://huggingface.co/uwg/upscaler/tree/main/ESRGAN放在ComfyUI\models\upscale_modelsai-forever/Real-ESRGAN放大模型https://huggingface.co/ai-forever/Real-ESRGAN/blob/a86fc6182b4650b4459cb1ddcb0a0d1ec86bf3b0/RealESRGAN_x4.pth放在ComfyUI\models\upscale_modelsDetail Tweaker XL细节lorahttps://civitai.com/models/122359?modelVersionId=135867canny、tile、depth等融合在一起当前发布的alpha版本检查点未完全训练,beta版本正在训练,https://huggingface.co/InstantX/FLUX.1-dev-Controlnet-Union-alpha
因为上次祐萌刚刚讲过了comfyUI的使用,我们就讲一下在comfyUI中如何使用Flux(在ForgeUI中同样可以使用,国内还可以去哩布哩布、阿里云等众多平台使用,有很多平台可以薅羊毛,这里介绍本地部署comfyUI)把这4个模型,放到对应的目录下就可以了。t5xxl_fp16.safetensors:放在ComfyUI/models/clip/目录下clip_l.safetensors:放在ComfyUI/models/clip/目录下ae.safetensors:放在ComfyUI/models/vae/目录下flux1-dev.safetensors:放在ComfyUI/models/unet/目录下[heading3]怎么记和理解呢?[content]flux1-dev.safetensors是底模,ae.safetensors是VAE,clip_l.safetensors和t5xxl_fp16.safetensors是关于文字语言编码,这么理解就行。