Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

照片黑白转彩色

Answer

以下是关于照片黑白转彩色的几种方法:

基于 ipadapter 工作流的方法

  1. 基于 ipadapter 最新工作流“ipadapter_advanced.json”,其中 controlnet 模型用于控制生成的图片。
  2. 将一张黑白素材图片和一张彩色风格图片进行风格迁移完成转绘。
  3. 具体步骤包括:
    • 先创建节点加载图片。
    • 读取一张所需风格的图片作为参考图。
    • 将图像用蓝色的线连接到 cn 应用,通过 cn 的深度学习模型(SDxl 版本),采用 Zoe 深度预处理器。
    • 对要生成的图片进行填写提示词,如正向提示词:illustration of clouds and meadows and mountains and trees,calm,executable,high quality。
    • 生成(添加到提示词队列)。

使用 MutiDiffusion 插件的方法: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度的调整和照片的裁切,然后使用上述步骤进行上色。如果直接上色效果不佳,可以放弃人物服装的颜色指定,只给一个场景方向,如从网上找一张参考照片让 AI 去匹配色调,加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖。

使用 DALL·E 编辑功能的方法

  1. 在 DALL·E 编辑器界面更改完图片后点击保存。
  2. 可以在编辑器界面右侧的对话面板中输入提示来更改图片,例如输入「make it black and white」将图像更新为黑白。
  3. 在 ChatGPT 移动应用程序上使用 DALL·E 进行编辑,选择左下角的「编辑」调出提示选项,选择「Select」访问选择工具,突出显示要编辑的图像部分,通过屏幕左侧的滑块更改图片大小,选择完图像部分后选择屏幕右下角的「Next」按钮,在弹出的对话面板中输入提示对图像进行更改。
Content generated by AI large model, please carefully verify (powered by aily)

References

1-ipa工作流用法

我将基于ipadapter(简称“ipa”)最新工作流“ipadapter_advanced.json”工作流给大家进行展示。工作流中controlnet模型(简称“cn”)用来控制ipa生成的图片。作者:b站up坏心眼猫特效,工作流和模型:[https://pan.quark.cn/s/2d0c9a5a9d34](https://pan.quark.cn/s/2d0c9a5a9d34)预处理器网络模型的总览如下图:ipa+cn的总实现框架如下图:[heading2]1.1基于深度学习的重绘[content]1.1.1将一张黑白素材图片和一张彩色风格图片进行风格迁移完成转绘。黑色图片如上,彩色片如下。最终生成的图片如下图,可以很清楚的看到,原来的黑白素材图片得到了风格上赋能。也可以生成的四张图片如下图:补充:可以生成四张(选择下图右边进行与K采样器的latent连接),也可以生成一张(选择左边)[heading3]1.1.2步骤及解析[content](1)首先先创建节点加载图片:(2)其次读取一张所需风格的图片作为参考图。(3)将图像用蓝色的线连接到cn应用如图所示,即通过cn的深度学习模型(SDxl版本,因为checkpoint大模型用的是SDxl版本)。因为采用的是Zoe深度预处理器。(4)对要生成的图片进行填写提示词。正向提示词:illustration of clouds and meadows and mountains and trees,calm,executable,high quality(5)生成(添加到提示词队列)

【SD】用AI给老照片上色,岁月不改它模样

启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。

DALL·E推出编辑功能

更改完图片后,不要忘记点击保存:你还可以选择在DALL・E编辑器界面右侧的对话面板中输入提示来更改图片。例如,以下提示将图像更新为黑白,提示「make it black and white」:最后是在ChatGPT移动应用程序上使用DALL・E进行编辑。选择左下角的「编辑」就能调出提示选项:选择「Select」可以访问选择工具,点击该工具,能够突出显示要编辑的图像部分。屏幕左侧的滑块允许更改图片的大小。选择完你想编辑的图像部分,然后选择屏幕右下角的「Next」按钮,就会弹出一个对话面板,你可以输入提示对图像进行更改。

Others are asking
请问想根据旅游日记绘制黑白线条的插画如何通过AI实现
要根据旅游日记绘制黑白线条的插画,可以通过以下步骤利用 AI 实现: 1. 利用 Midjourney 生成线稿:使用关键词如“Black and white line drawing illustration of your travel diary scene, black line sketch, , Chinese element style, popular toys, blind box toys, Disney style, white background niji 5 style expressive”。 2. 对生成的线稿在 PS 中手动重绘错误的地方。比如有些图出来没有阴影容易飘,可以自己画一个出来。 3. 利用 Stable Diffusion 上色:使用 Controlnet 控制上色效果。 4. 对于着色画,了解其特点和艺术效果,包括色彩的丰富性、情感表达、细节和纹理的突出以及创意发挥等方面。 5. 在编写 AI 绘画的关键词时,遵循基础描述、风格指定、色彩要求和细节强调的结构思路。例如:基础描述为“a beautiful and memorable scene from your travel diary”,风格指定为“line art”,色彩要求为“black and white color matching”,细节强调为“changes in line thickness”。 6. 尝试进阶玩法,如用 MJ 的 Retexture 功能或即梦参考功能,通过写提示词或垫图功能给着色画上色。
2025-02-10
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04
黑白老照片修复
以下是关于黑白老照片修复的相关内容: 1. 利用新上线的 controlnet 模型中的 Recolor 新模型为黑白照片上色。在处理人物照片还原时,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 2. 字节发布的新模型 SeedEdit 也可用于黑白老照片上色,通过输入相应的提示词,如“给画面上色,时尚,舒服”,还能进行元素替换、移除无关元素和切换各种风格。 3. 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。之后可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-02-01
黑白简笔画风格的AI漫画可以参考谁的
以下是一些黑白简笔画风格的 AI 漫画参考: Sarah Andersen: 主题风格: 通常使用简单的黑白线条作画,配以极富表现力的角色表情。 作品经常探讨如焦虑、社交尴尬、性别问题以及对生活中普通但难以言说的瞬间的幽默呈现。 通常使用清晰简洁的线条,这有助于表达画面的情感和幽默。 大多数作品是黑白的,有时会使用颜色来强调特定的元素或情感。 角色常常显示出戏剧性的表情,这反映了各种情绪状态。 作品经常用幽默和讽刺来处理生活中的不如意。 技巧: 在主要描述语后面加上“by Sarah Andersen”或者“style reference Sarah Andersen”。 在提示中加入情感色彩的描述,比如使用“joyful,” “awkward,”或“anxious”等词,来帮助 AI 捕捉 Sarah Andersen 作品中的情感深度。 利用cref 命令保持人物的一致性。 应用: 社交媒体上进行漫画创作。 使用这种风格的插图,可以使故事更加生动有趣。 个性化礼物和商品设计(需注意版权问题)。 擅长创作表情包 Meme: Prompt 4:Black and white photo illustration of a doge face in the center, looking utterly baffled with a humorous 'shrug' gesture. Adjacent to the doge, three doge face icons are displayed for 'Like', 'Repost', and 'Collect'. The 'Like' doge is smitten with heart eyes, the 'Repost' doge is dizzy with spiraled eyes, and the 'Collect' doge is greedily drooling over a bone. Prompt 5:Vector meme in black and white of a doge depicted with three heads and six arms, exuding a calm, Buddhalike aura. Surrounding comical diagram elements point to the doge with arrows labeled '70% tranquility', '20% deep thought', and '10% in the moment'. Prompt 6:如果想要呈现出特定的表现结果,还可以用比喻,类比等方法达到类似的画面。比如这里想生成很多 Doge,那么也可以借助九头蛇等提示词。 教程:线稿上色 Midjourney + Stable Diffusion: 在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用 midjourney 生成线稿,PS 稍微做一些修正,再用 controlnet 控制,stable diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。 线稿产出:mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character, black line sketch, wearing a fortune hat, wearing a collar around the neck, Carrying a huge bag containing scrolls and ingots, matching rope and straps at his wrists, Chinese element style, popular toys, blind box toys, Disney style, white background niji 5 style expressive PS 手动手动重绘错误的地方:有些图出来没有阴影容易飘,可以自己画一个出来。
2024-10-08
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
如果改变照片中人物的表情
要改变照片中人物的表情,可以通过以下几种方式: 1. 在使用 SD 脸部修复插件 After Detailer 时,输入如“伤心、流泪”这样针对表情的正负提示词,人物的表情会进行相应改变。但输入“带着墨镜”可能没有效果。 2. 使用 Magic Brush 工具,选中人物的眉毛、眼睛、嘴唇等部位,通过调节轨迹的方向来实现合理的表情变化。 3. 在 Midjourney V6 中,若遇到无法改变角色脸部等问题,可按照以下步骤排除故障:首先确保写了强有力的提示以建议新的姿势、风格或细节;若角色抗拒被操纵,可能是 cref 图像支配了提示,可通过使用 cw进行处理,尝试将提示与较低的 cref 权重一起使用,如 cw 60,按照特定步骤操作,还可考虑使用 来恢复面部区域。
2025-04-14
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11