Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

liblib教程

Answer

以下是关于 liblib 的教程:

线稿提取教程

  1. 出两张彩色的稍连贯的图片。
  2. 提取第一张的线稿图:
    • 用 liblib 提取,进入 https://www.liblib.art/ 。
    • 点击【在线生图】。
    • 滑到下面找出【ControlNet】并点击右侧。
    • 点击上传图片。
    • 勾选【启用】、【允许预览】、【Lineart】,预处理器选择【写实线稿提取】,并点击【运行&预览】。
    • 把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】,线稿提取大功告成!右键图片另存即可。

文生图简明操作流程

  1. 定主题:确定要生成的图片主题、风格和表达的信息。
  2. 选择 Checkpoint:根据主题选择贴近的 checkpoint,如麦橘、墨幽的系列模型。
  3. 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。
  4. 设置 VAE:选择 840000 那一串。
  5. CLIP 跳过层:设成 2。
  6. Prompt 提示词:用英文写需求,单词、短语之间用英文半角逗号隔开。
  7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,中间用英文半角逗号隔开。
  8. 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。
  9. 迭代步数:选 DPM++2M Karras 时,在 30 - 40 之间。
  10. 尺寸:根据喜好和需求选择。
  11. 生成批次:默认 1 批。

此外,还有 Liblibai 简易上手教程,包含概念与功能说明、简明操作流程、prompt 简易技巧三部分。可通过Liblibai(哩布哩布,已换成站点维护后的新链接)进入免费在线生图。若有不明白之处,可在评论区交流或添加微信:designurlife1st 沟通。

Content generated by AI large model, please carefully verify (powered by aily)

References

Aria清:彩墨世界VB-保姆级教程

我用liblib提取的线稿,当然你们也可以用SD或者其他道具。https://www.liblib.art/1.点击【在线生图】2.滑到下面找出【ControlNet】并点击右侧3.点击上传图片4.勾选【启用】、【允许预览】、【Lineart】预处理器选择【写实线稿提取】并点击【运行&预览】就会得出5.把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】线稿提取大功告成!右键图片另存就可以了![heading1]第三步:用首尾帧跑视频[content]1.线稿上色的动态视频我用的是【即梦】视频1.2模型首尾帧功能,因为这个不会让图片乱动,比较乖提示词:慢慢晕染上色得到了[imageinput_慢慢晕染上色_2024-12-12 23_29_54.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YBGkb0ICtoYLXvxokIlcbKhxnRe?allow_redirect=1)2.从一个动作到另一个动作我用的是【runway】,当然也可以使用可灵、即梦、Haiper、VIDU等[Gen-3 Alpha Turbo 3439773302,蝙蝠侠腾空起飞,__--ar_169_--fast_--,M 5.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/HKawbLgdEop3S8xOZMHcPSNNnMb?allow_redirect=1)

Liblibai简易上手教程

定主题:你需要生成一张什么主题、什么风格、表达什么信息的图。(没错我是喜欢看plmm多点)选择Checkpoint:按照你需要的主题,找内容贴近的checkpoint。一般我喜欢用模型大佬麦橘、墨幽的系列模型,比如说麦橘写实、麦橘男团、墨幽人造人等等,效果拔群。选择lora:在你想要生成的内容基础上,寻找内容重叠的lora,帮助你控制图片效果及质量。可以多看看广场上做得好看的帖子里面,他们都在用什么lora。设置VAE:无脑选840000那一串就行。CLIP跳过层:设成2就行。Prompt提示词:用英文写你想要AI生成的内容,不用管语法也不要写长句,仅使用单词和短语的组合去表达你的需求。单词、短语之间用英文半角逗号隔开即可。负向提示词Negative Prompt:用英文写你想要AI避免产生的内容,也是一样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。采样方法:这玩意儿还挺复杂的,现在一般选DPM++2M Karras比较多。当然,最稳妥的是留意checkpoint的详情页上,模型作者是否有推荐采样器,使用他们推荐的采样器会更有保障迭代步数:要根据你采样器的特征来,一般我选了DPM++2M Karras之后,迭代步数在30~40之间,多了意义不大还慢,少了出图效果差。尺寸:看你喜欢,看你需求。生成批次:默认1批。

Liblibai简易上手教程

本简易教程包含三部分1.概念与功能说明(能看懂)2.简明操作流程(能生图)3.prompt简易技巧(能简单控制图)虽然视频教程很多,但我觉得看图文说明更方便,所以写这系列教程。注意正文加粗的部分是重点。本篇的效果意图达到可以自行使用liblibai的在线SD,如果看完之后不明白,说明我写得不清楚,请评论区激情开麦,或者添加我的微信:designurlife1st后沟通。[Liblibai(哩布哩布,已换成站点维护后的新链接)](https://www.liblib.ai/)点击蓝字,进入可以免费在线生图的哩布哩布(*^▽^*)

Others are asking
liblib ai 教程
以下是关于 Liblibai 的简易上手教程: 一、概念与功能说明 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长。并非越多越好,效果提升非线性,过多后效果增长曲线放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大 AI 易放飞自我。如需高清图,可设中等尺寸并用高分辨率修复(以后再学)。 3. 生成批次:用本次设置重复生成的批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会使图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,固定种子后可对图片进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子,不用管。 7. ADetailer:面部修复插件,可治愈脸部崩坏,高阶技能,后续学习。 8. ControlNet:控制图片中特定图像,用于控制人物姿态、生成特定文字、艺术化二维码等,高阶技能,稍后学习。 9. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 二、简明操作流程 1. 文生图 定主题:明确生成图片的主题、风格和表达信息。 选择 Checkpoint:根据主题找贴近内容的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora,控制图片效果及质量。 设置 VAE:无脑选 840000 那一串。 CLIP 跳过层:设成 2。 Prompt 提示词:用英文写需求,单词、短语组合,用英文半角逗号隔开,不管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 后,一般在 30 40 之间,多了意义不大且慢,少了出图效果差。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。 三、prompt 简易技巧 能简单控制图。 虽然视频教程很多,但看图文说明更方便。Liblibai 网站(https://www.liblib.ai/)可点击进入免费在线生图。若看完不明白,可评论区交流或添加微信:designurlife1st 沟通。
2025-03-31
liblib ai 使用教程
以下是 Liblibai 的使用教程: 简明操作流程: 1. 定主题:明确您想要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 Checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. 设置 CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,一般在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数,并非越多越好,需根据采样器特征选择。 2. 尺寸:图片生成的大小,太小或太大都有影响。 3. 生成批次:用本次设置重复生成的批次数。 4. 提示词引导系数:指图像与 prompt 的匹配程度,过高会影响图像质量。 5. 随机数种子:固定后可对图片进行“控制变量”操作。 6. ADetailer:面部修复插件,高阶技能。 7. ControlNet:控制图片中特定图像,高阶技能。 8. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 其他概念: 1. 首页 模型广场:有其他用户发布的模型,收藏和运行数多的模型在首页前排,可查看模型详情并加入模型库。 2. Checkpoint:生图必需的基础模型,必选。 3. lora:低阶自适应模型,可选可不选,用于控制细节。 4. VAE:类似于滤镜,调整生图饱和度,选择 840000 即可。 5. CLIP 跳过层:一般设为 2,早期不用过多关注。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:让 AI 用的生图算法。
2025-03-31
liblib 使用
Liblib 的使用方式如下: 1. 在线生图: 2. 本地 ComfyUI Flux+Lora 工作流: 。 Liblibai 简易上手教程中的概念与功能说明: 1. 迭代步数:AI 调整图片内容的次数。步骤越多,调整越精密,出图效果理论上更好,但生图耗时越长,且并非越多越好,效果的提升非线性,多了以后效果的增长曲线就放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小了 AI 生成不了什么内容,太大了 AI 开始放飞自我。如需高清图,可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成几批图。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大将导致图像更接近提示,但过高会让图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,在固定好种子以后,可对图片进行“控制变量”效果的操作,比如修改提示词、修改 clip 跳过层等。第一次生成图时没有种子,不用管,空着就行。第二次生图若用上次图的种子,且其他设置不变,会出一样的图片。 7. ADetailer:面部修复插件,治愈脸部崩坏的超强小工具,高阶技能,后面再学。 8. ControlNet:控制图片中一些特定的图像,可用于控制人物姿态,或生成特定文字、艺术化二维码等。也是高阶技能,后面再学。 9. 重绘幅度:图生图时用到,重绘幅度越大,输出的图和输入的图差别就越大。 此外,Liblib 相关辅助工具中,换脸方面有 FaceFusion 这款开源软件,可在本地运行,不仅能将源图像中的面部与目标图像或视频中的面部进行交换,还提供多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可进行实时换脸和面部改造。其有多种选项和参数,允许用户根据需要进行定制,还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub: 。
2025-01-24
liblib的生图技巧
以下是关于 Liblib 的生图技巧: Lora 模型地址: 原作者:C 站 DucK113 在线下载地址:https://civitai.com/models/802364/flux1orlabubulora 本地下载:file:flux_labubu.safetensors 使用方式: 方式一:Liblib 在线生图 方式二:本地 ComfyUI Flux + Lora 工作流,相关介绍可参考之前的作业:,工作流中涉及的主要模型网盘:https://pan.quark.cn/s/2797ea47f691 ,包括 FLUX.1schnell:https://huggingface.co/blackforestlabs/FLUX.1schnell/blob/main/flux1schnell.safetensors ,file:ae.safetensors ,file:clip_l.safetensors ,t5xxl_fp8_e4m3fn:https://huggingface.co/comfyanonymous/flux_text_encoders/blob/main/t5xxl_fp8_e4m3fn.safetensors Lora 效果提示词: Labubu,monkey Labubu,Chinese style 1cowboy,Labubu 简易上手教程: 简明操作流程: 定主题:确定生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择贴近的模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:寻找内容重叠的 lora 控制图片效果及质量。 设置 VAE:选择 840000 那一串。 CLIP 跳过层:设成 2。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++ 2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++ 2M Karras 时,在 30 40 之间。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。 概念与功能说明: 生图入口 1:网页顶部的右方有生图按钮,点击进入生图界面。 生图入口 2:点进模型广场上任意一个模型(checkpoint 或 lora),有立即生图按钮。 生图入口 3:点进任意一个模型下面的返图区,点开一张喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制所有设置,尝试复现图片。
2024-10-17
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12