Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

liblib ai 教程

Answer

以下是关于 Liblibai 的简易上手教程:

一、概念与功能说明

  1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长。并非越多越好,效果提升非线性,过多后效果增长曲线放平并开始震荡。
  2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大 AI 易放飞自我。如需高清图,可设中等尺寸并用高分辨率修复(以后再学)。
  3. 生成批次:用本次设置重复生成的批次数。
  4. 每批数量:每批次同时生成的图片数量。
  5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会使图像质量下降。
  6. 随机数种子:生成的每张图都有随机数种子,固定种子后可对图片进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子,不用管。
  7. ADetailer:面部修复插件,可治愈脸部崩坏,高阶技能,后续学习。
  8. ControlNet:控制图片中特定图像,用于控制人物姿态、生成特定文字、艺术化二维码等,高阶技能,稍后学习。
  9. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。

二、简明操作流程

  1. 文生图
    • 定主题:明确生成图片的主题、风格和表达信息。
    • 选择 Checkpoint:根据主题找贴近内容的 checkpoint,如麦橘、墨幽的系列模型。
    • 选择 lora:寻找与生成内容重叠的 lora,控制图片效果及质量。
    • 设置 VAE:无脑选 840000 那一串。
    • CLIP 跳过层:设成 2。
    • Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开,不管语法和长句。
    • 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,用英文半角逗号隔开。
    • 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页模型作者推荐的采样器。
    • 迭代步数:选 DPM++2M Karras 后,一般在 30 - 40 之间,多了意义不大且慢,少了出图效果差。
    • 尺寸:根据喜好和需求选择。
    • 生成批次:默认 1 批。

三、prompt 简易技巧

能简单控制图。

虽然视频教程很多,但看图文说明更方便。Liblibai 网站(https://www.liblib.ai/)可点击进入免费在线生图。若看完不明白,可评论区交流或添加微信:designurlife1st 沟通。

Content generated by AI large model, please carefully verify (powered by aily)

References

Liblibai简易上手教程

本简易教程包含三部分1.概念与功能说明(能看懂)2.简明操作流程(能生图)3.prompt简易技巧(能简单控制图)虽然视频教程很多,但我觉得看图文说明更方便,所以写这系列教程。注意正文加粗的部分是重点。本篇的效果意图达到可以自行使用liblibai的在线SD,如果看完之后不明白,说明我写得不清楚,请评论区激情开麦,或者添加我的微信:designurlife1st后沟通。[Liblibai(哩布哩布,已换成站点维护后的新链接)](https://www.liblib.ai/)点击蓝字,进入可以免费在线生图的哩布哩布(*^▽^*)

Liblibai简易上手教程

定主题:你需要生成一张什么主题、什么风格、表达什么信息的图。(没错我是喜欢看plmm多点)选择Checkpoint:按照你需要的主题,找内容贴近的checkpoint。一般我喜欢用模型大佬麦橘、墨幽的系列模型,比如说麦橘写实、麦橘男团、墨幽人造人等等,效果拔群。选择lora:在你想要生成的内容基础上,寻找内容重叠的lora,帮助你控制图片效果及质量。可以多看看广场上做得好看的帖子里面,他们都在用什么lora。设置VAE:无脑选840000那一串就行。CLIP跳过层:设成2就行。Prompt提示词:用英文写你想要AI生成的内容,不用管语法也不要写长句,仅使用单词和短语的组合去表达你的需求。单词、短语之间用英文半角逗号隔开即可。负向提示词Negative Prompt:用英文写你想要AI避免产生的内容,也是一样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。采样方法:这玩意儿还挺复杂的,现在一般选DPM++2M Karras比较多。当然,最稳妥的是留意checkpoint的详情页上,模型作者是否有推荐采样器,使用他们推荐的采样器会更有保障迭代步数:要根据你采样器的特征来,一般我选了DPM++2M Karras之后,迭代步数在30~40之间,多了意义不大还慢,少了出图效果差。尺寸:看你喜欢,看你需求。生成批次:默认1批。

Liblibai简易上手教程

1.迭代步数:AI调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,生图耗时越长。但是并非越多越好,效果的提升非线性,多了以后效果的增长曲线就放平并开始震荡了。1.尺寸:图片生成的尺寸大小。太小了AI生成不了什么内容,太大了AI开始放飞自我。如果你要高清图,可以设置中等的尺寸并用高分辨率修复(以后再学也行)。1.生成批次:用本次设置重复生成几批图。2.每批数量:每批次同时生成的图片数量。3.提示词引导系数:指图像与prompt的匹配程度。数字增大将导致图像更接近你的提示,但过高会让图像质量下降。4.随机数种子:生成的每张图都有随机数种子,在固定好种子以后,可以对图片进行“控制变量”效果的操作,比如说修改提示词、修改clip跳过层等等。如果你第二次生图用来上张图的种子,但是其他设置都不改,就会出一样的图片。(注意,第一次生成图的时候是还没有种子的,不用管,空着就行)5.ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。6.ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。7.重绘幅度:图生图时用到的,重绘幅度越大,输出的图和输入的图差别就越大。

Others are asking
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
liblib ai 使用教程
以下是 Liblibai 的使用教程: 简明操作流程: 1. 定主题:明确您想要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 Checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. 设置 CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,一般在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数,并非越多越好,需根据采样器特征选择。 2. 尺寸:图片生成的大小,太小或太大都有影响。 3. 生成批次:用本次设置重复生成的批次数。 4. 提示词引导系数:指图像与 prompt 的匹配程度,过高会影响图像质量。 5. 随机数种子:固定后可对图片进行“控制变量”操作。 6. ADetailer:面部修复插件,高阶技能。 7. ControlNet:控制图片中特定图像,高阶技能。 8. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 其他概念: 1. 首页 模型广场:有其他用户发布的模型,收藏和运行数多的模型在首页前排,可查看模型详情并加入模型库。 2. Checkpoint:生图必需的基础模型,必选。 3. lora:低阶自适应模型,可选可不选,用于控制细节。 4. VAE:类似于滤镜,调整生图饱和度,选择 840000 即可。 5. CLIP 跳过层:一般设为 2,早期不用过多关注。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:让 AI 用的生图算法。
2025-03-31
liblib教程
以下是关于 liblib 的教程: 线稿提取教程: 1. 出两张彩色的稍连贯的图片。 2. 提取第一张的线稿图: 用 liblib 提取,进入 https://www.liblib.art/ 。 点击【在线生图】。 滑到下面找出【ControlNet】并点击右侧。 点击上传图片。 勾选【启用】、【允许预览】、【Lineart】,预处理器选择【写实线稿提取】,并点击【运行&预览】。 把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】,线稿提取大功告成!右键图片另存即可。 文生图简明操作流程: 1. 定主题:确定要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设成 2。 6. Prompt 提示词:用英文写需求,单词、短语之间用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,中间用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 此外,还有 Liblibai 简易上手教程,包含概念与功能说明、简明操作流程、prompt 简易技巧三部分。可通过进入免费在线生图。若有不明白之处,可在评论区交流或添加微信:designurlife1st 沟通。
2025-01-28
liblib 使用
Liblib 的使用方式如下: 1. 在线生图: 2. 本地 ComfyUI Flux+Lora 工作流: 。 Liblibai 简易上手教程中的概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长,且并非越多越好,效果的提升非线性,多了以后效果的增长曲线就放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小了 AI 生成不了什么内容,太大了 AI 开始放飞自我。如需高清图,可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成几批图。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大将导致图像更接近提示,但过高会让图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,在固定好种子以后,可对图片进行“控制变量”效果的操作,比如修改提示词、修改 clip 跳过层等。第一次生成图时没有种子,不用管,空着就行。第二次生图若用上次图的种子,且其他设置不变,会出一样的图片。 7. ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。 8. ControlNet:控制图片中一些特定的图像,可用于控制人物姿态,或生成特定文字、艺术化二维码等。也是高阶技能,后面再学。 9. 重绘幅度:图生图时用到,重绘幅度越大,输出的图和输入的图差别就越大。 此外,Liblib 相关辅助工具中,换脸方面有 FaceFusion 这款开源软件,可在本地运行,不仅能将源图像中的面部与目标图像或视频中的面部进行交换,还提供多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可进行实时换脸和面部改造。其有多种选项和参数,允许用户根据需要进行定制,还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub: 。
2025-01-24
liblib的生图技巧
以下是关于 Liblib 的生图技巧: Lora 模型地址: 原作者:C 站 DucK113 在线下载地址:https://civitai.com/models/802364/flux1orlabubulora 本地下载:file:flux_labubu.safetensors 使用方式: 方式一:Liblib 在线生图 方式二:本地 ComfyUI Flux + Lora 工作流,相关介绍可参考之前的作业:,工作流中涉及的主要模型网盘:https://pan.quark.cn/s/2797ea47f691 ,包括 FLUX.1schnell:https://huggingface.co/blackforestlabs/FLUX.1schnell/blob/main/flux1schnell.safetensors ,file:ae.safetensors ,file:clip_l.safetensors ,t5xxl_fp8_e4m3fn:https://huggingface.co/comfyanonymous/flux_text_encoders/blob/main/t5xxl_fp8_e4m3fn.safetensors Lora 效果提示词: Labubu,monkey Labubu,Chinese style 1cowboy,Labubu 简易上手教程: 简明操作流程: 定主题:确定生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择贴近的模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:寻找内容重叠的 lora 控制图片效果及质量。 设置 VAE:选择 840000 那一串。 CLIP 跳过层:设成 2。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++ 2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++ 2M Karras 时,在 30 40 之间。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。 概念与功能说明: 生图入口 1:网页顶部的右方有生图按钮,点击进入生图界面。 生图入口 2:点进模型广场上任意一个模型(checkpoint 或 lora),有立即生图按钮。 生图入口 3:点进任意一个模型下面的返图区,点开一张喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制所有设置,尝试复现图片。
2024-10-17
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12