Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

照片转线稿

Answer

以下是关于照片转线稿的相关信息:

  • 教程:线稿上色 Midjourney + Stable Diffusion
    • sd 上色:
      • 正关键词:主要前面添加了增加照片质感常用的 + mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+ 风格参数。
      • 负关键词:看自己的效果添加。添加一切您不想要的东西,前面调用了词嵌入(bad_prompt_version2-neg, badhandv4, easynegative)需要去 c 站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候,却起到了反作用,强行给小猫咪小动物 5 个手指(建议不加,或者建议生成的时候加,放大的时候去掉)。
      • 正关键词示例:((white background)), (8k, raw photo, best quality, masterpiece), (photon mapping, radiosity, physically-based rendering, automatic white balance), CG, unity, official art, amazing, finely detail, an extremely delicate and beautiful, extremely detailed, 3d, rendering, c4d, blender, octane render, Chinese festive color scheme, open mouth, 1 tooth, The cat has a pair of white gloves, a cute cat cartoon IP character, black line sketch, wearing a hat, wearing a collar around the neck, carrying a huge red bag, matching rope and straps at his wrists, Chinese element style, poular toys, blind box toys, Disney style。
      • 负关键词示例:back and white, green, blue, purple。
      • 真实系大模型:revAnimated v1.2.2 版本。
      • 尺寸:最好和您的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。
      • 最重要的 ControlNet 设置:上传自己的草图到 ControlNet,点击启用。记得点?的图标让预处理器生效。
  • 摊位信息:
    • AI 3D 打印纹身印章:通过 AI 将图片转绘成简约线条插画风格,然后现场 3D 打印出来,最终交付定制化的纹身印章产品。具体流程:适用 comfyui 工作流生成 + 输出线稿素材;将线稿生成模型文件;输入 3D 打印机,输出定制图案模型(预计打印时间 3 - 5 分钟)。印章图案为软性材料,印章颜料为可水洗安全材料,可另选半永久植物染料。摊位区域为 E,摊位编号为 69,摊位类型为 3D 印章。
  • 星流一站式 AI 设计工具:
    • 右侧生成器入门模式图片参考:
      • 全部图片参考功能:原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割。
      • 其他参考功能:SoftEdge 线稿、配色参考、配色打乱、法线贴图、MLSD 线稿。
Content generated by AI large model, please carefully verify (powered by aily)

References

教程:线稿上色Midjourney+Stable Diffusion

关键词正关键词主要前面添加了增加照片质感常用的+mj生成线稿的关键词调整(去掉mj里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数负关键词看自己的效果添加。添加一切你不想要的东西,我前面调用了词嵌入(bad_prompt_version2-neg,badhandv4,easynegative)需要去c站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候。。却起到了反作用,强行给小猫咪小动物5个手指(建议不加,或者建议生成的时候加,放大的时候去掉)正关键词((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style,负关键词:back and white,green,blue,purple,真实系大模型:revAnimated v1.2.2版本尺寸最好和你的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸最重要的ControlNet设置上传自己的草图到ControlNet,点击启用。记得点?的图标让预处理器生效

摊位信息

|你的摊位活动主题和内容|摊位区域|摊位编号|摊位类型||-|-|-|-||AI 3D打印纹身印章<br>通过AI将图片转绘成简约线条插画风格,然后现场3D打印出来,最终交付定制化的纹身印章产品。<br>具体流程:<br>1、适用comfyui工作流生成+输出线稿素材<br>2、将线稿生成模型文件<br>3、输入3D打印机,输出定制图案模型(预计打印时间3-5分钟)<br><br>*后面有测试效果图<br>印章图案为软性材料<br>印章颜料为可水洗安全材料,可另选半永久植物染料<br><br>|E|69|3D印章||AI未病预测细胞仪,通过发送脉冲信号跟神经中枢互动,获取身体各器官的细胞信号,和背后1500万人的健康细胞库进行比对,结合医学算法,输出人体营养和各器官的健康度。|D|7|产品宣传||AI研学及AI家长课程|E|70|剧本游体验||AI手办定制+AI写真照片|E|71|手办||工作流MetaGPT,游戏|E|72|游戏体验||数字人与AI硬件(情趣玩具)结合,可与AI谈恋爱、玩耍。|E|73|AI相框+成人陪伴产品宣传|

星流一站式 AI 设计工具

1.使用图像控制功能,如空间关系、线稿、人物长相、姿势等,来精准控制生成图像的内容和风格。2.入门模式只能使用以下四种参考功能1.全部图片参考功能|原图|景深|线稿轮廓|姿势|Lineart线稿|Scribble线稿|光影|Segmant构图分割||-|-|-|-|-|-|-|-|||将参考图像转化为深度图,控制人物与背景的纵深关系|将参考图像转化为线稿,控制后续图像生成的轮廓|根据参考的图像生成骨骼图,控制后续图像的姿势。|与线稿轮廓相比更加专业,多可用于漫画领域|将输入图像转换为涂鸦或草图风格,以涂鸦/草图为引导生成新的图像。|根据参考图像光影信息,生成类似的光影效果的图像|对图像进行语义分割,将图像中的不同物体或区域进行分类标记,有助于有针对性地对特定区域进行编辑或生成|||||||||||原图|SoftEdge线稿|配色参考|配色打乱|法线贴图|MLSD线稿||-|-|-|-|-|-|||与线稿轮廓相比,产生较为柔和的边缘效果,使图像的过渡更加自然。|实现图像的颜色迁移,将参考图像的颜色风格应用到新生成的图像上|打乱图像的色彩方案,对图像进行重新上色|表现物体表面的细节和光照效果,可增强图像的真实感|检测图像中的直线,可用于强调图像中的线性结构或进行基于直线的图像编辑||||||||

Others are asking
图像转线稿
以下是关于图像转线稿的相关内容: 在图像转线稿方面,有以下几种方法和流程: 1. 基于真实线稿的背景风格重绘: 可以将图像用蓝色的线连接到 cn 应用。 对于 cn 模型,可以采用深度学习的模型(个人感觉效果更佳),也可以采用“adapterxllineartfp16.safetensors”线稿模型。 对应的生成图片即可。 2. 星流一站式 AI 设计工具中的相关功能: 使用图像控制功能,如空间关系、线稿、人物长相、姿势等,来精准控制生成图像的内容和风格。 入门模式下有多种参考功能,如原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割、SoftEdge 线稿、配色参考、配色打乱、法线贴图、MLSD 线稿等。每种参考功能都有其特定的作用,例如将参考图像转化为深度图以控制人物与背景的纵深关系,将参考图像转化为线稿以控制后续图像生成的轮廓等。 3. 基于 ipadapter 最新工作流“ipadapter_advanced.json”的方法: 工作流中 controlnet 模型(简称“cn”)用来控制 ipadapter 生成的图片。 基于深度学习的重绘,例如将一张黑白素材图片和一张彩色风格图片进行风格迁移完成转绘。 具体步骤包括创建节点加载图片、读取所需风格的图片作为参考图、将图像用蓝色的线连接到 cn 应用(通过 cn 的深度学习模型,如 SDxl 版本)、对要生成的图片进行填写提示词等。 相关资源:作者为 b 站 up 坏心眼猫特效,工作流和模型可参考:
2025-02-15
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11