Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui的系统教程

Answer

ComfyUI 是一个基于Stable Diffusion 的 AI 绘画工具,它为用户提供了一种更加便捷、高效的绘画方式。以下是一些关于 ComfyUI 的系统教程:

  1. ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。你可以在ComfyUI 官方文档网站找到相关信息。
  2. 优设网:提供了一篇详细的 ComfyUI 入门教程,这篇教程适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是优设网的 ComfyUI 入门教程
  3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解 ComfyUI 的用户。可以在知乎的 ComfyUI 介绍找到相关教程。
  4. Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习 ComfyUI 的使用。可以在Bilibili 的 ComfyUI 系列教程找到视频教程。

这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握 ComfyUI 的使用。

Content generated by AI large model, please carefully verify (powered by aily)

References

2023 年历史更新存档

[重磅来袭!ComfyUI系统性教程之原理篇第2集上线!](https://waytoagi.feishu.cn/record/1sfvuEO9GzeSv9FtsVP5NyEVg)最近把Zho的这个视频看了第三遍,对扩散模型有了更深入的理解:2万字带你了解Stable Diffusion发展史|扩散模型从零到一:系统梳理!本集内容导览:1)简要回顾| LLM + DM掀起的AIGC浪潮席卷全球、2)系统梳理|论文视角详细盘点Diffusion Model扩散模型如何实现从零到一的飞跃、3)聚焦SD |从原理、发展到应用与生态逐一详解;[Adobe发布下一代Firefly图像生成模型](https://firefly.adobe.com/),新的套件包括Firefly Image 2模型、Firefly Vector模型和Firefly Design模型;群友发布了一篇自己写的结构化Prompt,很适合于学校调研场景,《[做调研:我用这条prompt,2小时帮同学干完了3篇调研报告](https://waytoagi.feishu.cn/wiki/MzAawmzfwiD25wkoUsacTa6PnOd?chunked=false)》;

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。1.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。1.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。1.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。

第1课:做最好懂的Comfy UI入门教程:Stable Diffusion专业节点式界面新手教学

——只要“一键”就可以加载近乎无穷无尽的工作流,来实现包括人像生成背景替换图片转动画等在内的各种神奇功能?这期视频,让我们一起走进这个StableDiffusion的最新应用,了解它和WebUI之间的差异,并且系统地梳理一遍它的安装配置方法、操作界面含义和工作流的基本搭建方式,帮助你以最低的学习成本,上手这个让“节点式”界面成为主流、“工作流”的概念逐渐普及的新工具。视频制作不易,如果这期内容对你有帮助,请一定要一键三连支持鼓励一下啦!如果你的身边有其他对ComfyUI感兴趣的朋友,欢迎转发这个视频给TA!Credits:ComfyUI项目页面:github.com/comfyanonymous/ComfyUI ComfyUI Examples:comfyanonymous.github.io/ComfyUI_examples

Others are asking
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
我是医科大学的本科学生,我现在想用Ai帮助我书写论文和报告,我应该怎么系统学习?
以下是一些系统学习利用 AI 帮助书写论文和报告的建议: 一、了解常用的 AI 工具和平台 1. 文献管理和搜索 Zotero:结合 AI 技术,可自动提取文献信息,助您管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供相关文献推荐和引用分析。 2. 内容生成和辅助写作 Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析 Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式 LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测 Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 二、学习使用 AI 辅助撰写论文和报告的方法 1. 信息收集:利用 AI 搜索与权威网站结合获取关键数据,AI 可辅助提取结构化表格数据或编写抓取程序。 2. 内容拆分:针对报告需求将内容拆分,避免 AI 单次处理任务过长。 3. 数据处理:借助传统工具如 Excel,结合 AI 指导高效操作数据筛选与图表生成。 4. 分析与撰写:通过整理数据,利用 AI 辅助分析后撰写报告初稿,可指定风格并校验数据与结论准确性。 三、注意事项 1. AI 仅作辅助,最终内容需人工主导校验,避免误导性结论。 2. 保持科学的态度和方法,遵循科学伦理原则。 3. 了解现阶段 AI 在教育领域应用的局限性,如知识适配的层次性问题、教育应用的安全性考量等。 希望以上内容对您有所帮助。
2025-04-14
有没有优质的系统的coze入门网课?
以下是一些优质的系统的 Coze 入门网课推荐: 另外,还有“一泽 Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力”,这可能是全网最好的 Coze 教程(之一),即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。其核心看点包括通过实际案例逐步演示用 Coze 工作流构建能够稳定按照模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法等。适合任何玩过 AI 对话产品的一般用户,以及希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。但需注意,本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。
2025-04-14
如果我想要系统学习coze,我应该怎么安排?
如果您想要系统学习 Coze,可以参考以下安排: 第一期共学回放 5 月 7 号() 大聪明分享|主题:Agent 的前世今生 每个分享人分享最初是怎么接触 Coze 的,以及现在用 Coze 做什么 20:00@?AJ 主持开场 20:00 21:00 大聪明分享 21:00 21:30 关于 Coze 随便聊聊 5 月 8 号() 大圣分享|主题:我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze 20:00 21:20 大圣分享 5 月 9 号() 艾木分享|主题:Agent 系统的核心构成:Workflow 和 Multiagent Flow(以“Dr.Know”和“卧底”为例 20:00 21:00 艾木分享 21:00 21:30 线上答疑 5 月 10 号() 罗文分享|主题:一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书 20:00 21:00 罗文分享 5 月 11 号() Itao 分享|主题:和 AI 成为搭子 20:00 21:00 Itao 分享 21:00 21:30 线上答疑 Agent 搭建共学快闪 0619 日程安排 6 月 19 日 20:00 开始 从零到一,搭建微信机器人 0 基础小白 张梦飞 小元 金永勋、奥伏 6 月 20 日 20:00 开始 Coze 接入、构建你的智能微信助手 完成第一课 张梦飞 吕昭波 安仔、阿飞 6 月 23 日 20:00 开始 微信机器人插件拓展教学 完成第一课 张梦飞 安仔 大雨 空心菜、AYBIAO、阿飞 6 月 24 日 20:00 开始 虚拟女友“李洛云”开发者自述 完成第一课 皮皮 安仔 6 月 25 日 20:00 开始 FastGPT:“本地版 coze"部署教学 完成第一课 张梦飞 银海 金永勋、AYBIAO 6 月 27 日 20:00 开始 Hook 机制的机器人使用和部署教学 0 基础小白,一台 Windows 10 以上系统的电脑 张梦飞 Stuart 阿飞、空心菜
2025-04-14
有没有关于AI生成ppt的系统性教学
以下是关于 AI 生成 PPT 的系统性教学: 背景: 作者熊猫 Jay 因企业内部要求编写此文章并公开分享,旨在帮助不同水平的用户,包括 PPT 专家和新手,通过 AI 工具更高效地制作 PPT,满足不同需求,提高工作效率。 主要内容: 介绍了市面上最受欢迎的 5 款 AI PPT 工具,包括 MindShow、爱设计、闪击、Process ON、WPS AI。每款工具都有独特优势,能助用户快速、高效完成 PPT 设计。 总结: AI 介入 PPT 工具带来便捷高效体验,文中核心章节为 AI 生成 PPT 的主要思路。不同工具适合不同人群,应根据实际需求选择,试用和体验比盲目跟风更明智。在 AI 时代,它是办公革新和思维升级的体现。 提示词及相关索引: 作者联系方式: 公众号:熊猫 Jay 字节之旅;免费星球:熊猫 Jay·AI·成长,欢迎关注。
2025-04-09
我想要系统学习ai大模型应用开发,能帮我制定一个系统学习路线吗?
以下是一个系统学习 AI 大模型应用开发的学习路线: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 研读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 7. 参与相关社区交流和项目实践: 总的来说,AI 大模型应用开发是一个多学科、系统性的领域,需要深入的理论学习和工程实践经验相结合。除了学习基础知识,熟练使用开源框架工具也很关键。保持对前沿动态的跟踪,并实际参与相关项目是获得真知灼见的最佳途径。 此外,以下是一个利用 AI+SMART 安排学习计划的案例: 学习目标与个人或职业发展目标的关系:平时工作中需要经常阅读英文文档。另外,有朋友和客户是英文母语者,想要和他们沟通更加顺畅。其次,希望未来有机会进入大型外企工作。 具体学习内容:首先是词汇需要提高,其次听力、口语、阅读和写作这些方面都进行全面提高。 量化学习进度和成功:以考取雅思 8.0,且可以和朋友或客户流利的交谈为目标。 时间框架:半年内。 现实可行性:目前雅思 6.5,每天可以投入 2 小时。周末可以更多。有访问网络课程的条件,也可以购买书籍或其他学习材料。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-08