Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

在comyui中,使用flux1-dev模型需要多少显存

Answer

在 ComfyUI 中使用 flux1-dev 模型所需的显存情况如下:

  • 相关模型的下载地址:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main 。
  • 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址为:https://huggingface.co/Kijai/flux-fp8/tree/main 。
  • 低显存方案(8G 以下):flux1-dev-bnb-nf4.safetensors ,放入 ComfyUI\models\checkpoints 文件夹内,下载链接为 https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors 。

此外,还提供了以下相关资源链接:

  • BitsandBytes Guidelines and Flux :https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981
  • ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:Flux

https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:[dev的官方原版workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KhTAbaxbconU6PxBfJkcAkt8nJc?allow_redirect=1)上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

工具教程:Flux

https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main我随后也准备一下百度网盘和夸克网盘。更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608bflux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h提取码:ub9h如果GPU性能不足、显存不够,底模可以使用fp8的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/flux-fp8/tree/main最后我们再下载dev的工作流:[dev的官方原版workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KhTAbaxbconU6PxBfJkcAkt8nJc?allow_redirect=1)上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png我们打开ComfyUI,把工作流或图片拖拽到ComfyUI里:

第十五期 生图新王FLUX.1

flux1-dev-bnb-nf4.safetensors放入ComfyUI\models\checkpoints文件夹内https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensorsComfyUI_c_NF4节点https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4注:如果报错,请更新BitsandBytes库下载放入解压后ComfyUI\custom_node文件夹内重启ComfyUI,如果之前没更新,更新后再重启。[heading3]在ComfyUI里的使用[heading3]相关资源链接[content]BitsandBytes Guidelines and Fluxhttps://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981ComfyUI_bitsandbytes_NF4节点https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4flux1-dev-bnb-nf4.safetensorshttps://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors

Others are asking
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
FLUX低显存怎么安装
如果您的显存较低,安装 FLUX 可以参考以下步骤: 1. NF4 模型下载: 链接:https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 放置位置:ComfyUI/models/checkpoint/中(不像其他 Flux 模型那样放置在 UNET 中) NF4 配套节点插件:git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git 2. GGUF 模型下载: 链接:Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:GGUF 节点包:https://github.com/city96/ComfyUIGGUF 值得一提的是在最新版本的 ComfyUI 中,GGUF 的节点插件可以在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。 3. 对于 8G 以下显存的方案: flux1devbnbnf4.safetensors 放入 ComfyUI\\models\\checkpoints 文件夹内。 ComfyUI_c_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4 注:如果报错,请更新 BitsandBytes 库。下载放入解压后 ComfyUI\\custom_node 文件夹内,重启 ComfyUI,如果之前没更新,更新后再重启。 相关资源链接: BitsandBytes Guidelines and Flux:https://github.com/lllyasviel/stablediffusionwebuiforge/discussions/981 ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4 flux1devbnbnf4.safetensors:https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 注意使用精度优化的低配模型的话,工作流和原版是不一样的。自己改的话就是把上面官方的这个 fp8 的工作流,只需把底模的节点换成 NF4 的或者 GUFF 的即可。相关生态发展很快,有 Lora、Controlnet、IPadpter 相关生态建设非常速度,以及字节最近发布的 Flux Hyper lora 是为了 8 步快速生图。
2025-01-09
低显存版怎么安装
对于低显存版的安装,以下是相关步骤: 1. FLUX.1 低显存方案(8G 以下): 将 flux1devbnbnf4.safetensors 放入 ComfyUI\models\checkpoints 文件夹内。 下载 ComfyUI_c_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4 ,放入解压后 ComfyUI\custom_node 文件夹内。 注:如果报错,请更新 BitsandBytes 库,下载放入解压后 ComfyUI\custom_node 文件夹内,重启 ComfyUI,如果之前没更新,更新后再重启。 2. Dreambooth Extension for StableDiffusionWebUI: 在 SD Web UI 中转到“Extensions(扩展)”选项卡,选择“Available(可用)”子选项卡,选择“Load from:(从...加载)”以加载扩展列表,最后在 Dreambooth 条目旁边点击“install(安装)”。 安装完成后,必须完全重新启动 StableDiffusion WebUI。重新加载 UI 将无法安装所需的依赖项。 还需要更新版本的 diffusers,因为 SDWebUI 使用的是 0.3.0 版本,而 DB 训练需要>=0.10.0 版本。没有正确的 diffusers 版本会导致“UNet2DConditionModel”对象没有属性“enable_gradient_checkpointing”的错误消息,以及安全检查器警告。
2025-01-09
comy UI FLUX 低显存
ComfyUI FLUX 低显存运行的相关内容如下: 工作流: 目的是让 FLUX 模型能在较低的显存情况下运行。 分阶段处理思路: 先使用 Flux 模型在较低分辨率下进行初始生成以提高效率。 采用两阶段处理,先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用。 使用 SD 放大提升图片质量。 工作流的流程: 初始图像生成(Flux): UNETLoader:加载 flux1dev.sft 模型。 DualCLIPLoader:加载 t5xxl 和 clip_l 模型。 VAELoader:加载 fluxae.sft。 CLIPTextEncode:处理输入提示词。 BasicGuider 和 RandomNoise:生成初始噪声和引导。 SamplerCustomAdvanced:使用 Flux 模型生成初始图像。 VAEDecode:解码生成的潜在图像。 初始图像预览:PreviewImage 显示 Flux 生成的初始图像。 图像放大和细化(SDXL): CheckpointLoaderSimple:加载 SDXL 模型(fenrisxl_SDXLLightning.safetensors)。 UpscaleModelLoader:加载 RealESRGAN_x4.pth 用于放大。 VAELoader:加载 sdxl_vae.safetensors。 ImageSharpen:对初始图像进行锐化处理。 UltimateSDUpscale:使用 SDXL 模型和放大模型进行最终的放大和细化。 最终图像预览:PreviewImage 显示最终放大和细化后的图像。 FLUX 模型的选择: 用半精度 fp8 dev 版本(能用单精度 dev 版本的尽量用),也适合 fp8 的 T8 模型,降低对内存的占用。 记得把 weight dtype 也设置为 fp8,降低对显存的使用。 建议:先关闭高清放大部分,等跑出来效果满意的图片后,再开启放大。 ComfyUI 简介: 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更加精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候能清晰发现错误出在哪一步。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI
2025-01-08
在comyui中,使用flux1-dev模型24g显存够吗
在 ComfyUI 中使用 Flux1dev 模型,24G 显存是可以的,但建议内存尽量高于 32G 以避免意外情况的发生。如果您的显卡是 24G 或更高,右键 24G 那个 train_flux_24GLora 的文件。修改脚本路径和参数时,要注意底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径的正确填写。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ,百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流: ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI 把工作流或图片拖拽到其中即可。
2024-11-12
如何快速上手Cursor、Windsurf、V0.dev、bolt.new、Devin等AI编程产品的经验,能快速转型为AI产品经理?
以下是关于快速上手 Cursor、Windsurf、V0.dev、bolt.new、Devin 等 AI 编程产品并转型为 AI 产品经理的一些经验: 1. 深入理解用户场景和 AI 能力边界:要构建差异化的 AI Native 体验,需要同时对 AI 能力边界和用户场景有深入洞察。 2. 持续迭代产品:在快速变化的模型能力下,避免在每次的基座模型迭代中掉队或被淘汰。 3. 构建良好的模型产品化能力和基础设施:使得应用可以持续收集用户数据以迭代模型。 对于具体的产品: Cursor: 允许用自然语言描述需求,对上下文有深度理解能力,能理解整个项目的结构和依赖关系,进行跨文件的语义分析。 提供智能的代码重构建议,自动诊断和修复常见错误,基于代码自动生成文档。 但要注意,即使有 AI 辅助,当好产品经理也不容易,需要反复沟通和调整。 Devin:作为 2024 年横空出世的产品,预示着软件开发范式的根本转变。 Windsurf、V0.dev、bolt.new 等: 可以使用如 Cursor Composer 构建产品、使用 Bolt.new 构建产品、使用 V0.dev 生成组件等。 此外,国内知名的 AI 全栈开发者 @idoubi 分享了相关使用经验,包括自动补全代码、Debug&&Fix Error、实时对话&&联网搜索、写提示词、写前端页面、截图生成组件、写常用的代码逻辑/函数、代码重构、多语言翻译等方面。同时,对于零代码基础的人员,也有使用相关工具实现想法的方法,如使用 Cursor Composer、Bolt.new、Claude 等构建不同类型的应用。还可以盘点常用的 AI 辅助编程工具和使用场景,如 AI 编辑器(Cursor、Windsurf、Pear Al 等)、编辑器 AI 扩展(Github Copilot、Continue、Cline 等)、UI 组件生成工具(Cursor、V0.dev、Claude、screenshottocode 等)、完整项目构建工具(Cursor、Bolt.new、Replit Agent、Wordware 等)。
2025-04-10
AI在BizDevOps中的场景落地及应用
以下是关于 AI 在 BizDevOps 中的场景落地及应用的相关内容: AI 在 DevOps 中的应用: AI 可以承担指定计划、拆分任务和调用工具的角色,但目前无法完全评定任务结果的正确性和质量。 现阶段更适合让 AI 辅助完成部分任务,如画原型图、设计表结构、写自动化测试代码等,但需要人类验证后才能进行下一步操作。 完全依赖 AI 可能带来风险,如生产环境出错或被黑客恶意利用漏洞。 AI 的记忆能力: ChatGPT 支持记忆功能,可通过摘要保存对话内容以延续角色和对话风格,但新开会话可能在高推理任务中效果更好。 建议将角色设定和部分对话作为样例(fewshot)放入提示词中,以优化生成质量。 学习 GPT 的妙招: 结合视频教程、文字转录和基础资料,通过 ChatGPT 讲解学习内容。 角色反转,自己当老师,ChatGPT 当学生,通过提问互动和查漏补缺能有效提升学习效果。 AI 对软件工程的影响: 涵盖自动代码生成、智能调试、AI 驱动的 DevOps 和敏捷开发优化。 自动代码生成工具(如 GitHub Copilot)提高编程效率,AI 也助力智能测试与运维。 DevOps 迎来 AI 驱动的 CI/CD 和 AIOps,提升部署自动化和智能监控能力。 AI 让敏捷开发更加高效,通过自动化需求分析、测试优化和团队协作增强生产力。 其他相关动态: OpenAI CEO 宣布开发 AI 设备,目标颠覆智能手机。 OpenAI 推出全新 Deep Research,让 ChatGPT 成为研究助理。
2025-04-01
ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUI-aki(1)\ComfyUI-aki-v1.6\ComfyUI\models\checkpoints\flux1-dev-fp8.safetensors
很抱歉,根据您提供的错误信息“ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUIaki\ComfyUIakiv1.6\ComfyUI\models\checkpoints\flux1devfp8.safetensors”,暂时无法明确具体的问题原因。可能是模型文件格式不被识别,或者文件路径存在错误等。建议您检查文件的完整性和正确性,确保其符合相关软件的要求。
2025-03-07
claude 和 curse 和devin 这些智能编程工具介绍
以下是对一些智能编程工具的介绍: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,提高编程效率。 2. 通义灵码:阿里巴巴团队推出,具备行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成等多种能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,可为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费编程助手,基于 130 亿参数的预训练大模型,能快速生成代码。 5. Cody:代码搜索平台 Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手,基于自研基础大模型微调的代码大模型。 7. Codeium:由 AI 驱动的编程助手工具,通过提供代码建议、重构提示和代码解释来帮助软件开发人员。 此外,还有以下相关工具: Cursor:在多个编程场景中都有应用,如编辑器、完整项目构建等。 Devin:具有用 LLM 对大量文本做批量处理的能力,在理解图像和数据抓取方面有独特优势。 Claude:在多种开发和写作场景中都能发挥作用,如 API 与开发场景、写作、Chat 等。 每个工具的功能和适用场景有所不同,您可以根据自身需求选择最适合的工具。更多辅助编程 AI 产品,还可以查看:https://www.waytoagi.com/category/65
2025-02-11
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
自定义采样器(高级) Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper_CUDA_mm)
以下是关于“自定义采样器(高级)”中“Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper\_CUDA\_mm)”错误的解决办法: 错误原因:Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu! 对应插件地址:https://github.com/sipie800/ComfyUIPuLIDFluxEnhanced 资料链接: 百度网盘:通过网盘分享的文件:ComfyUI_PuLID_Flux_ll 链接:https://pan.baidu.com/s/1dMLAb4s0vroO9Zk6ecKb7Q?pwd=cycy 提取码:cycy 来自百度网盘超级会员 v5 的分享 说明文档:https://www.xiaobot.net/post/b98d55699a754b9baac242a3e285be94 由于 AI 技术更新迭代,请以文档更新为准 更多内容收录在:https://xiaobot.net/p/GoToComfyUI 网盘:https://pan.quark.cn/s/129886bbcc61 相关链接: ComfyUI_PuLID_Flux_ll :https://github.com/lldacing/ComfyUI_PuLID_Flux_ll?tab=readmeovfile guozinan/PuLID 模型:https://huggingface.co/guozinan/PuLID/tree/main
2025-02-03
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora ,放到:comfyUI\\models\\loras 。 3. 百度网盘分享的 flux1depthdevlora.safetensors : 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2024-12-17