Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

dify工作流中agent节点怎么使用

Answer

在 Dify 工作流中使用 Agent 节点的步骤如下:

  1. 搭建工作流框架:
    • 进入 Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。
    • 根据弹窗要求自定义工作流信息,点击确认完成新建。
    • 左侧「选择节点」模块中,根据子任务需要,实际用上的有插件(提供能力工具拓展 Agent 能力边界)、大模型(调用 LLM 实现文本内容生成)、代码(支持编写简单脚本处理数据)。
    • 按照流程图在编辑面板中拖入对应的 LLM 大模型、插件、代码节点完成框架搭建。
  2. 测试 Agent 节点功能:
    • 完成任何一个节点的配置后,都需要进行试运行测试以验证节点的运行效果。
    • 步骤一:点击「测试该节点」。
    • 步骤二:按格式要求输入待测试的输入内容,如果是 array 等其他格式,请自行对话 AI 或搜索网络确认格式要求。
    • 步骤三:点击「展开运行结果」,检查输入、输出项是否有误。如果有误,请依次检查“测试输入内容”、“节点配置”是否有误,以及优化“提示词”以提升对生成内容的约束力。当多次测试时输入与输出都符合预期,就可以进入下一个子任务的配置。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

为了节省文章篇幅,后文不再重复说明完成任何一个节点的配置后,我们都需要进行试运行测试,验证节点的运行效果,步骤如下:步骤一:点击「测试该节点」步骤二:按格式要求,输入待测试的输入内容如果是array等其他格式,请自行对话AI或搜索网络,确认格式要求步骤三:点击「展开运行结果」,检查输入、输出项是否有误。如果有误,请依次检查“测试输入内容”、“节点配置”是否有误,以及优化“提示词”,以提升对生成内容的约束力。当多次测试时,输入与输出都符合预期时,恭喜,你可以进入下一个子任务的配置啦?

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

为了节省文章篇幅,后文不再重复说明完成任何一个节点的配置后,我们都需要进行试运行测试,验证节点的运行效果,步骤如下:步骤一:点击「测试该节点」步骤二:按格式要求,输入待测试的输入内容如果是array等其他格式,请自行对话AI或搜索网络,确认格式要求步骤三:点击「展开运行结果」,检查输入、输出项是否有误。如果有误,请依次检查“测试输入内容”、“节点配置”是否有误,以及优化“提示词”,以提升对生成内容的约束力。当多次测试时,输入与输出都符合预期时,恭喜,你可以进入下一个子任务的配置啦?

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。

Others are asking
AI Agents(智能体)
AI 智能体(Agents)是人工智能领域中一个重要的概念: 1. 从 AGI 的发展等级来看,智能体不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 2. 作为大模型的主要发展方向之一,智能体中间的“智能体”其实就是大模型(LLM)。通过为 LLM 增加工具、记忆、行动、规划这四个能力来实现。目前行业里主要用到的是 langchain 框架,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。 3. 从智能体的起源探究来看,心灵社会理论认为智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,每个层次由多个 Agent 负责,每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务。同时存在专家 Agent、管理 Agent、学习 Agent 等不同类型的 Agent 及其相应功能。从达特茅斯会议开始讨论人工智能,到马文·明斯基引入“Agent”概念,“AI”和“Agent”就彻底聚齐,往后被称之为 AI Agent。
2025-04-15
B端AI Agent
以下是关于 B 端 AI Agent 的相关知识: 一、概念定义 1. 智能体(Agent)简单理解就是 AI 机器人小助手,参照移动互联网,类似 APP 应用的概念。随着 ChatGPT 与 AI 概念的爆火,出现了很多相关新名词,如 bot 和 GPTs 等。AI 大模型是技术,面向用户提供服务的是产品,因此很多公司关注 AI 应用层的产品机会。 C 端案例:如社交方向,用户注册后先捏一个自己的 Agent,然后让其与他人的 Agent 聊天,两个 Agent 聊到一起后真人再介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。 B 端案例:字节扣子和腾讯元器若为面向普通人的低代码平台,类似 APP 时代的个人开发者,那么帮助 B 端商家搭建 Agent 就类似 APP 时代专业做 APP 的。 2. 智能体开发平台:最早接触到的扣子 Coze 是通过一篇科技报道,如 2 月 1 日,字节正式推出 AI 聊天机器人构建平台 Coze 的国内版“扣子”,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI,但个人较常用的是扣子,所以常对比字节扣子和腾讯元器。 3. 关注智能体的原因:目前 AI Agent 的概念在市场上未达成共识,存在被滥用现象。AI Agent 指的是一种智能代理系统,接近人类大脑,可形成记忆、达成行动规划、自动交互、主动预测。其应用具有个性化、自主完成任务、多 Agent 协作等特点。目前 AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少,一方面是高度智能化的 Agent 能力需打磨,概念落地有距离;另一方面是 AI 和娱乐消费诉求结合少,主要带来生产方式和效率变革,个人消费者方向目前只看到“私人助理”场景。
2025-04-15
有关 ai agent 的科普文章
以下是为您提供的关于 AI Agent 的科普内容: AI Agent 是一个融合了多学科精髓的综合实体,包括语言学、心理学、神经学、逻辑学、社会科学和计算机科学等。它不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。 目前,关于 AI Agent 存在一些情况。例如,网络上对其的介绍往往晦涩难懂,让人感觉神秘莫测,其自主性、学习能力、推理能力等核心概念,以及如何规划和执行任务、理解并处理信息等方面,都像是笼罩在一层神秘面纱之下。 另外,以国与国之间的外交为例来解释相关协议。假设每个 AI 智能体(Agent)就是一个小国家,它们各自有自己的语言和规矩。各国大使馆试图互相沟通、做生意、交换情报,但现实中存在诸多问题,如协议各异、要求不同等。 如果您想了解更多关于 AI Agent 的详细内容,可访问: 。
2025-04-15
,AI agent 发展趋势,技术状态,商业模式
以下是关于 AI Agent 的发展趋势、技术状态和商业模式的相关信息: 发展趋势: 2024 年内,办公场景“AI 助手”开始有良好使用体验,实时生成的内容开始在社交媒体内容、广告中出现。 2025 2027 年,接近 AGI 的技术出现,人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行。 技术状态: 目标实现基于 ReAct、SFT、RAG、强化学习等实现自主规划能力的 AI Agent,构建具备认知、决策智能的 Agent 智能体框架。 专注文本/多模态大模型、AI Agent 技术创新与应用。 商业模式: 依据不同类型销售市场的特点,结合一站式 AI 搭建平台将销售部署的产品化和模版化,让企业更容易落地和应用 AI 能力。 销售智能体 Blurr.AI 占位交易环节,解决 2B 销售获客的痛点,且具有向前后端环节延展的势能。
2025-04-13
AGENT
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,既可以是软件程序,也可以是硬件设备。 智能体具有以下特点: 1. 自主系统:通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。 2. 关键组成部分: 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 反思和完善:对过去的行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 记忆:包括短期记忆,用于所有的上下文学习;长期记忆,通过利用外部向量存储和快速检索实现长时间保留和回忆信息。 工具使用:学习调用外部 API 来获取模型权重中缺失的额外信息。 以下是一些与智能体相关的资源目录: 关于 2025AGENT 智能体全球创作大赛: 1. 报名:通过→首页的“立即参赛”按钮进入报名页面,填写相关信息并提交即可,且参赛完全免费。 2. 提交作品:在本网站直接提交,若采用 flowith 搭建了 Agent 可以在微博、小红书、即刻平台发布,并@Flowith 官方,可获得额外会员奖励。 3. 奖项设置:设有金、银、铜奖和多个单项奖,获奖后将获得组委会颁发的奖金和证书,需保证联系方式准确以便联系。 4. 知识产权归属:参赛作品的知识产权归参赛者所有,但组委会有权在宣传和展示中使用参赛作品。
2025-04-12
AI workflow在企业中是否比Agent应用价值和场景更多
AI workflow 和 Agent 在企业中的应用价值和场景各有特点。 Agentic Workflows 具有以下优势: 1. 灵活性、适应性和可定制性:能够根据任务难度进行调整和演变,通过组合不同模式实现定制,在需求和复杂性增长时进行迭代升级。 2. 在复杂任务上的性能提升:将复杂任务分解为更小、可管理的步骤,显著优于确定性的零样本方法。 3. 自我纠正和持续学习:能够评估自身行为,完善策略,从过去经验中学习,在每次迭代中变得更有效和个性化。 4. 操作效率和可扩展性:可以高精度自动化重复任务,减少人工操作和运营成本,还能轻松扩展。 Agentic Workflow 的应用场景包括原子设计模式的组合、与人类反馈循环集成等。例如,Agentic RAG 在检索增强生成流程中引入了一个或多个 AI Agents,在规划阶段可进行查询分解等操作,还能评估数据和响应的相关性和准确性。 一般来说,Workflow 是一系列旨在完成特定任务或目标的相互连接的步骤。最简单的工作流是确定性的,遵循预定义步骤序列。有些工作流利用大模型或其他 AI 技术,分为 Agentic 和非 Agentic 两类。非 Agentic 工作流中,大模型根据指令生成输出。Agentic Workflow 是由单个或几个 AI Agents 动态执行的一系列连接步骤,被授予权限收集数据、执行任务并做出决策,利用 Agents 的核心组件将传统工作流转变为响应式、自适应和自我进化的过程。 综上所述,不能简单地说 AI workflow 在企业中比 Agent 应用价值和场景更多,这取决于企业的具体需求和任务特点。
2025-04-09
什么是Dify
Dify 是一个开源的大模型应用开发平台。它融合了后端即服务和 LLMOps 的理念,为用户提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。 该平台具有以下特点: 1. 强大的工作流构建工具。 2. 支持广泛的模型集成。 3. 提供功能丰富的提示词 IDE。 4. 拥有全面的 RAG Pipeline 用于文档处理和检索。 5. 允许用户定义 Agent 智能体。 6. 通过 LLMOps 功能持续监控和优化应用程序性能。 Dify 提供云服务和本地部署选项,满足不同用户需求。其开源特性确保对数据的完全控制和快速产品迭代。设计理念注重简单性、克制和快速迭代,能帮助用户将 AI 应用创意快速转化为现实。无论是创业团队构建 MVP、企业集成 LLM 增强现有应用能力,还是技术爱好者探索 LLM 潜力,Dify 都提供相应支持和工具。 Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般来说,如果是个人研究,推荐单独使用 Dify;如果是企业级落地项目,推荐使用多种框架结合,效果更好。
2025-04-13
哪里可以搜到dify的相关学习资料
以下是一些可以搜到 Dify 相关学习资料的途径: 1. 您可以通过以下链接获取相关学习资料:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。这些命令通常在宝塔面板的终端安装,若想了解命令的含义,可直接询问 AI 。 2. 微信文章: ,该文章介绍了如何在几分钟内使用 Dify 平台快速定制网站的 AI 智能客服,即使是非技术人员也能操作。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-10
dify
Dify 是一个开源的大模型应用开发平台: 构建知识库的具体步骤: 准备数据:收集文本数据,包括文档、表格等格式,进行清洗、分段等预处理以确保数据质量。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档,并编写良好描述。 配置索引方式:提供三种索引方式(高质量模式、经济模式和 Q&A 分段模式),根据实际需求选择,如追求高准确度可选高质量模式。 集成至应用:将数据集集成到 Dify 的对话型应用中,在应用设置中配置数据集使用方式。 持续优化:收集用户反馈,对知识库内容和索引方式持续优化和迭代,定期更新增加新内容。 平台特点: 结合后端即服务和 LLMOps 理念,提供直观界面快速构建和部署生产级别的生成式 AI 应用。 具备强大工作流构建工具,支持广泛模型集成,提供功能丰富的提示词 IDE 和全面的 RAG Pipeline 用于文档处理和检索。 允许用户定义 Agent 智能体,通过 LLMOps 功能对应用程序性能持续监控和优化。 提供云服务和本地部署选项,满足不同用户需求,开源特性确保对数据完全控制和快速产品迭代。 设计理念注重简单性、克制和快速迭代,为创业团队构建 MVP、企业集成 LLM 等提供支持和工具。 官方手册:https://docs.dify.ai/v/zhhans 。一般来说,个人研究推荐单独使用 Dify,企业级落地项目推荐多种框架结合。
2025-04-01
dify教程
以下是关于 Dify 的教程: Differential Diffusion 教程: 技术适用场景:特别适用于需要保持图像整体一致性和自然感的场景。 软填充技术:用于平滑填补图像空白或损坏部分,同时细微调整周围区域,确保新填充内容与原始图像无缝融合。 强度扇:一种可视化不同编辑强度效果的工具,帮助用户通过可视化方式理解不同编辑强度的效果。 无需训练或微调:操作仅在推理阶段进行,不需要对模型进行额外训练或微调。 与现有扩散模型兼容:可集成到任何现有的扩散模型中,增强编辑和生成能力,适用于 Stable Diffusion XL、Kandinsky 和 DeepFloyd IF 等不同的扩散模型。 主要功能特点: 精细的编辑控制:通过引入变化地图,可对图像每个像素或区域指定不同变化程度,支持离散和连续编辑。 文本驱动的图像修改:通过文本提示指导图像修改方向。 软填充技术:在填补图像空白或修复部分时,能细微调整周围区域确保无缝融合。 Dify 接入企业微信教程: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-03-29
dify学习
Dify 是一个开源的大模型应用开发平台: 理念:结合后端即服务和 LLMOps 的理念。 特点:提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。具有强大的工作流构建工具,支持广泛的模型集成,有功能丰富的提示词 IDE 和全面的 RAG Pipeline 用于文档处理和检索。允许用户定义 Agent 智能体,通过 LLMOps 功能对应用程序性能持续监控和优化。 部署选项:提供云服务和本地部署,满足不同用户需求。 开源特性:确保对数据的完全控制和快速产品迭代。 设计理念:注重简单性、克制和快速迭代,旨在帮助用户将 AI 应用的创意快速转化为现实。 推荐使用方式:个人研究推荐单独使用,企业级落地项目推荐多种框架结合。 Dify 官方手册:https://docs.dify.ai/v/zhhans
2025-03-28
dify怎么 登录
以下是登录 Dify 的步骤: 1. 腾讯云一键部署: 重装服务器系统,安装宝塔面板(可视化服务器管理),登陆凭证选自定义密码。 控制面板 服务器 查看详情,找到【应用信息】卡片,点击管理应用。 放行防火墙端口:直接点上面的防火墙链接跳转,添加规则。 获取宝塔面板的账号密码:复制上面的命令,点击左侧菜单栏的自动化助手 个人命令 创建命令(选择自己服务器所在的地区),根据截图填写,然后保存。点击命令后面的【执行】,等执行成功,回到左侧菜单选择【执行记录】,查看任务详情里就能看到登录信息,把红框框出来的部分自己保存好。外网面板地址就是登录地址,复制到浏览器打开,填完账号密码就能成功登录。 Docker 安装:登陆成功 bt 面板之后,点击左侧菜单栏【Docker】,按提示来。 2. 申请云服务器部署: 申请云服务器按照相关教程来,先不需要领免费大模型接口,后期在 dify 上领。切记要选择腾讯云服务器。 复制“外网面板地址”粘贴到浏览器的地址栏登录。
2025-03-28
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
在coze工作流中,怎样利用下一个代码节点合并前两个代码节点的输出,并以正确的格式输入传入飞书多维表格插件节点
在 Coze 工作流中利用下一个代码节点合并前两个代码节点的输出并以正确格式传入飞书多维表格插件节点的步骤如下: 1. 搭建整理入库工作流: 3.4 大模型节点:提取稍后读元数据。根据对稍后读阅读清单的元数据期望设置大模型节点,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000 以完整解析长内容网页,用户提示词需相应设置。 3.5 日期转时间戳。后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需使用「日期转时间戳time_stamp_13」插件进行格式转化,具体设置明确。 3.6 大模型节点:把稍后读元数据转换为飞书多维表格插件可用的格式。飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以要将之前得到的元数据数组进行格式转换,大模型节点配置及用户提示词需相应设置。 3.7 插件节点:将元数据写入飞书表格。添加「飞书多维表格add_records」插件,设置{{app_token}}与{{records}}参数。 3.8 结束节点:返回入库结果。「飞书多维表格add_records」插件会返回入库结果,直接引用该信息用于通知外层 bot 工作流的入库是否成功。 2. 搭建选择内容推荐流: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令开始流程,无需额外配置。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:从飞书多维表格查询收藏记录。添加「飞书多维表格search_records」插件,设置{{app_token}}参数,并在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可在这一步定向检索未读状态的收藏记录。 4.4 大模型节点:匹配相关内容。为处理稳定采用批处理,对检索出来的收藏记录逐个进行相关性匹配,用户提示词可优化以提升匹配精准度。 搭到这里,别忘了对整个工作流进行测试。
2025-01-09
coze工作流中数据库如何应用?主要是返回数据
在 Coze 工作流中,数据库的应用如下: 工作流由多个节点构成,节点是基本单元。Coze 平台支持的节点类型包括数据库节点。 数据库节点的输入:用户可以定义多个输入参数。 数据库节点的输出:如果数据库是查询作用,则输出会包含查询出来的内容。通过 SQL 语句告诉数据库要执行的动作,这里的 SQL 语句可以让 AI 自动生成并进行适当改动。 注意事项:Coze 平台的逻辑是数据库与 bot 绑定,使用数据库功能时,需要在 bot 中设置相同名称和数据结构的数据库进行绑定。 测试工作流:编辑完成的工作流无法直接提交,需要进行测试。点击右上角的“test run”,设定测试参数,查看测试结果,完成后发布。 相关参考文档和示例: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本示例: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 在【拔刀刘】自动总结公众号内容,定时推送到微信的案例中,循环体内部的数据库节点用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的 url 和开始节点的 key(重命名为 suid)。查询数据库需要文章 url 和用户的 suid 两个值来判断这名用户的这篇文章是否推送过。记得设置输出项“combined_output”。同时,Coze 平台中使用数据库功能需要在 bot 中设置相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。
2025-01-08
在 COMFY UI 中,关于 Tile 平铺预处理器怎么工作流中怎么使用
在 ComfyUI 中,关于 Tile 平铺预处理器的使用方法如下: 1. 平铺和切片都是用于处理大尺寸视频的技术,可以帮助在有限的 GPU 内存下处理高分辨率视频。 tile_sample_min_height:96,最小平铺高度。 tile_sample_min_width:96,最小平铺宽度。这两个参数定义了在使用平铺时的最小尺寸。 tile_overlap_factor_height:0.083,高度方向的重叠因子。 tile_overlap_factor_width:0.083,宽度方向的重叠因子。这些因子决定了平铺时各个块之间的重叠程度。 enable_vae_tiling:设置为 false,表示不启用 VAE(变分自编码器)的图像平铺。 enable_vae_slicing:设置为 false,表示不启用 VAE 切片。如果启用了平铺(tiling),它会将大图像分割成小块进行处理,然后再组合起来,这有助于处理大分辨率的视频。VAE 切片(如果启用)可以通过分割输入张量来分步计算解码,这有助于节省内存。 2. 将您的 ComfyUI 更新到最新。 3. 将 clip_l 和 t5xxl_fp16 模型下载到 models/clip 文件夹。确保您的 ComfyUI/models/clip/目录中,有 t5xxl_fp16.safetensors 和 clip_l.safetensors,您可以改用 t5xxl_fp8_e4m3fn.safetensors 来降低内存使用量,但如果您的 RAM 超过 32GB,建议使用 fp16。跑过 flux 就有这些模型,没有的话翻之前文章有下载。 4. 在您的 ComfyUI/models/vae/文件夹中,有 ae.safetensors。 5. 将最开始下载的 flux1filldev.safetensors 放于 ComfyUI/models/unet/文件夹中。 6. 使用 flux_inpainting_example 或者 flux_outpainting_example 工作流。
2024-12-26
coze工作流中提示词优化节点有吗?
在 Coze 工作流中存在提示词优化节点。这个节点比较容易理解,如果觉得提示词需要优化,可加入该节点进行处理。其参数很简单,只有一个要优化的提示词。例如,用一开始就在用的文生图提示词“1 girl in real world”进行试用。优化后添加了很多具体信息,如在带着好奇心看书,环境中有阳光,色彩搭配的特点等。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”控制真实图片生成的效果比“realistic”好。
2024-11-16
AI如何在平面设计工作流中提高效率,具体的步骤有哪些
以下是 AI 在平面设计工作流中提高效率的具体步骤和相关信息: 1. 工具选择 主要工具:Midjourney 和 Stabel Diffusion。 辅助工具:RUNWAY 和 PS beta 等。 2. 工作流效果 创意多样:设计解决方案更为多样和创新,项目中不同创意概念的提出数量增加了 150%。 执行加速:AI 生成的设计灵感和概念显著缩短了创意阶段所需时间,设计师在创意生成阶段的时间缩短了平均 60%。 整体提效:在整体项目的设计时间减少了 18%。 3. 提升能力的方法 建立针对性的 AI 工作流:使用 lora 模型训练的方式,生成特定的形象及 KV 风格,建立包含品牌形象、风格视觉 DNA 的模型,并根据实用场景进行分类。 实用的模型训练:在营销活动期间,根据市场环境和消费者偏好的变化迅速调整 lora 模型。 AI 设计资产储备:建立和管理 AI 设计资产,沉淀相关知识、技能、工具,促进团队内部的知识积累和提升。 此外,对于建筑设计师审核规划平面图,以下是一些可用的 AI 工具: HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 Maket.ai:面向住宅行业,在户型和室内软装设计方面有探索,能根据输入需求自动生成户型图。 ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期可引入标准和规范约束设计结果。 Fast AI 人工智能审图平台:形成全自动智能审图流程,实现数据的汇总与管理。 但每个工具都有其特定应用场景和功能,建议根据具体需求选择合适的工具。
2024-11-12
有哪些节点式AI对话工具
以下是一些节点式 AI 对话工具: 1. Coze 中的问答节点: 是 Coze 工作流中的重要组件,能让机器人主动收集用户信息,实现更自然的对话交互。 可收集用户具体需求和信息,引导用户选择特定功能或服务,确保获取完整必要信息。 有两种问答方式:直接回答模式,用户用自然语言自由回答,bot 提取关键信息;选项回答模式,提供预设选项供用户选择,适用于功能选择菜单、分步骤引导、服务类型分类等。 配置说明包括选择执行此节点的模型、设置输入参数、提问内容、回答类型和输出等。 2. Coze 中的图像流节点: 专门用于图像处理,可通过可视化操作添加图像处理节点构建流程生成图像。 图像流发布后可在智能体或工作流中使用。 3. Coze 中的大模型节点: 调用大语言模型,使用变量和提示词生成回复。 模型方面,基础版和专业版按需使用,专业版支持接入更多模型资源。 模型选择右下角有生成多样性设置,包括精确模式、平衡模式和创意模式。 输入包括智能体对话历史、参数名与变量值,变量值可引用前面链接过的节点的输出或进行输入。
2025-03-28
我现在是学了一段时间的comfyui+flux,接下来准备学Python开发comfyui节点、对接模型,这样学下去方向有没有问题呢
您学习 ComfyUI 和 Flux 一段时间后准备学习 Python 开发 ComfyUI 节点并对接模型,这个方向是可行的。以下是一些相关的知识和要点供您参考: 工作流方面: 工作流节点可直接拖动单个节点到任意位置,也可按住 Control 键并用鼠标左键滑框选中多个节点,再按 Shift 键一起拖动。 选中节点后右键新建组,可修改组名、颜色等,组被覆盖时可直接拖动组。 选中节点后右键选择对齐方式,如顶部对齐、左边对齐等。 第三方节点的安装方式包括在 customer NODE manager 中安装、在 GitHub 上复制链接安装、通过终端输入指令安装、在秋叶启动器的版本管理中安装。 可通过 group by Parser 节点控制组,也可通过按住节点按 control b 跳过或按 control m 终止执行。 模型方面: 噪声强度由种子调节,种子固定噪声分布方式,噪声与 CLIP 无关,增大噪声设置值会增强模型对图片重绘的程度。 模型版本的提示词差异:1.5 以 tag 为主,XL 论文称以自然语言为主,但实际使用中因模型微调情况可能仍需用 tag。 Flux 模型有时生成黑图,可能有修复方案,需自行查询。图像生成结果为空,可能是 VAE 编码器与大模型未连接,调整连接后问题解决。 安装方面: 自动打标 joy_caption 副本的节点安装地址为 D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes。 安装步骤包括:(Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat,注意 transformers 版本不能太低。 下载模型或者运行 ComfyUI 自动下载模型到合适文件夹,如从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 新版的 PuLID 解决了模型污染的问题,使用新版的节点需要禁用或者删除之前的 PuLID 节点,不然可能会有冲突问题。模型放在 ComfyUI\\models\\pulid 文件夹里面,注意用新版的。 如果使用 PuLID,还需要安装 EVA CLIP 等模型。
2025-03-21
想在comfyui搭建一个音频节奏生成ai抽象粒子视觉效果的工作流,应该使用哪些模型节点?如何搭建?
在 ComfyUI 搭建音频节奏生成 AI 抽象粒子视觉效果的工作流,您可以参考以下内容: 1. 大模型节点: 您可以根据自己的风格选择不同的大模型,推荐使用: AWPainting,链接:https://civitai.com/models/84476/awpainting primemixanything,链接:https://civitai.com/models/75089/primemixanything xxmix9realistic v40,链接:https://civitai.com/models/47274/xxmix9realistic 2. 关键词节点: 可以使用工作流内的关键词,也可以输入自己的正负面关键词。 3. Lora 节点: 可根据自己风格搭配进行选择,如需多个 Lora 可进行串联。 4. ControlNet 节点: 选用 qrcode_monster V2 版本,相比于 V1 版本 V2 版本识别性更强。下载需要魔法,没有魔法的同学文末领取模型。下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 5. 采样器节点: 所有生图的老演员了,Step 要选择高步数,35 50 即可。采样器默认的 euler a /dpmpp 2m sde 基础节点介绍: 1. Checkpoint 基础模型(大模型/底模型)节点: 属于预调模型,决定了 AI 图片的主要风格。输出连接:Model 连接 KSampler 采样器的 Model;Clip 连接终止层数的 Clip;Vae 连接 VaeDecode 的 Vae。 2. Clip 终止层数(clip skip)节点: ComfyUI 的是负数的,webUI 的是正数。输出入点:Clip 连接 Checkpoint 基础模型的 Clip。输出节点:Clip 连接 Prompt 节点的 Clip。正向提示词和负面提示词各一个。 3. Prompt 节点: 输出入点:Clip 连接 Clip 终止层数节点的 Clip。输出节点:正向提示词和负面提示词各连接一个。 4. KSampler 采样器: 输出入点:Model 连接 Checkpoint 基础模型;Positive 连接正向提示词;negative 连接负面提示词;latent_imageL 连接 Empty Latent Image 潜空间图像的 Latent。输出节点:Latent 连接一个 VAE 的 Samples。 5. Empty Latent Image 潜空间图像: 设置出图尺寸,例如 10241024。输出入点:Latent 连接 KSampler 采样器的 Latent。 此外,还有一些根据插件整理的工作流,您可以先随便选择一个“文生图”中的“基础+自定 VAE”。选好之后,点击“替换节点树”。界面中就会出现已经连接好的工作流节点(如果没看到,就按一下 home 键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有在 webUI 中熟悉的参数,而且全都是中文面板。打开模型节点,可以看到 webUI 中的模型全部都在。这次先不更改参数,点击“运行节点树”,直接生成。此时会提醒您是否启用 ComfyUI,点击确定即可。等待一会,就能在最后一个节点预览图中看到生成的图片。点击这里就可以打开后台,看到出图时间。
2025-03-15
快速帮我补充下大模型的发展时间线和关键节点,以及当前最前沿的新闻
大模型的发展时间线和关键节点如下: 2017 年:发布《Attention Is All You Need》论文。 2018 年: Google 提出 BERT,创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模。 OpenAI 提出 GPT,开创仅使用自回归语言建模作为预训练目标的方式。 2021 年:Meta 提出 Large LAnguage Model Approach(LLAMA),成为首个开源模型。 2022 年 11 月 30 日:ChatGPT 发布,在全球范围内掀起人工智能浪潮。 2022 年 12 月:字节云雀大模型等出现。 2023 年: 国内大模型发展大致分为准备期(国内产学研迅速形成大模型共识)、成长期(数量和质量逐渐增长)、爆发期(开源闭源大模型层出不穷,形成百模大战态势)。 关键进展包括:Meta 开源 Llama2、OpenAI 发布多模态 GPT4V 及 GPT4 Turbo、百川智能开源 Baichuan7B 及 Baichuan2、百度升级文心一言 4.0、清华&智谱 AI 开源 ChatGLM2 及清华开源 ChatGLM3、腾讯发布混元助手等。 当前最前沿的新闻包括:过去半年,国内领军大模型企业实现了大模型代际追赶的奇迹,从 7 月份与 GPT3.5 的 20 分差距,到 11 月份测评时已在总分上超越 GPT3.5。
2025-03-14
comfyui怎么一键连接节点
要在 ComfyUI 中一键连接节点,可以按照以下步骤进行操作: 1. 了解成对的节点:SetNode 可当成无线发射器,GetNode 可当成无线接收器。一个发射器可以对应多个接收器,但它是定向发射的,不会自动连接。 2. 添加节点的方式:推荐在普通节点上点击右键,找到“添加设置节点”和“添加获取节点”。需注意从输出拉出连线后的查找节点列表里找不到这两个节点。 3. 具体连接操作:将输出连接到“SetNode”节点上,并为其起一个好记的名字。在要连入的节点附近添加“GetNode”节点,选择刚刚起的名字,把这个节点和要输入的部分连接上即可。 此外,ComfyUI 的核心是其节点式界面,节点类型包括输入节点(如文本提示节点、图像输入节点、噪声节点等)、处理节点(如采样器节点、调度器节点等)、输出节点(如图像输出节点)和辅助节点(如批处理节点、图像变换节点等)。用户可以通过拖动节点之间的连接线来构建整个工作流,还可以创建自定义节点来扩展功能,自定义节点安装目录为 D:\\ComfyUI\\custom_nodes。ComfyUI 的界面包括顶部工具栏(包含全局操作和工具)、左侧面板(用于显示节点库)和中央画布(主要工作区域)。
2025-03-13
Coze 使用循环体节点,如何将中间current值,在循环体内的加一,然后赋值给中间变量curent
在 Coze 工作流中,使用循环体节点将中间 current 值在循环体内加一并赋值给中间变量 curent 的方法如下: 1. 循环节点支持设置中间变量,此变量可作用于每一次循环。中间变量通常和循环体中的设置变量节点搭配使用,在每次循环结束后为中间变量设置一个新的值,并在下次循环中使用新值。 2. 各个节点配置如下: 循环节点:将中间变量设置为指定值(如 last_paragraph ),参数值设置为一个空格。首次循环中生成第一个段落时,不需要参考大纲以外的任何内容,所以将循环变量的值指定为一个空格,您也可以按需设置为其他内容。 循环体中的设置变量节点:中间变量选择循环节点中设置的中间变量(如 last_paragraph );设置值选择大模型的输出参数 output ,表示开始下次循环前,将本次循环中大模型生成的段落赋值给循环变量。 循环体中的大模型节点节点:添加 2 个输入参数,分别引用循环节点的内置变量 item 和循环变量,并在提示词中指定生成文章段落时参考上个段落的内容。 3. 中间变量的设置方法: 初始化变量:在循环开始前,设置中间变量的初始值(如空值、0 或默认文本)。 动态更新:每轮循环结束时,将当前任务的输出赋值给中间变量。 数据类型一致性:确保中间变量的类型(如字符串、数组)与任务输出类型一致。 4. 注意事项: 中间变量的更新逻辑需符合业务流程的需求。 变量过多可能增加复杂度,建议尽量简化。 此外,循环体画布是循环节点的内部运行机制,用于编排循环的主逻辑,每个循环迭代中,工作流会依次执行画布内的各个节点。选中循环体时,才能向循环体中添加新节点,或拖入新节点至循环体画布。循环体中无需设置开始节点或结束节点,默认按照连接线的箭头方向依次执行各个节点。设置变量节点、继续循环节点和停止循环节点只能在循环体中使用。不支持将循环体外部的节点拖动至循环体内,循环体中的节点也不可移动到循环体之外。循环节点的输出参数可设置为循环体的执行结果集合,表示当数组中所有元素运行完毕之后,将所有循环的运行结果打包输出给下游。也支持设置为循环变量的取值。配置循环节点之后,还需要试运行这个节点,查看其输入输出是否符合预期。调试结束后,循环节点的运行结果中会显示循环节点在多轮循环之后汇总的输入输出内容。循环体中的每个节点也会展示每次循环中的输入输出、变量赋值内容。
2025-03-09