Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何用SD给线稿上色

Answer

以下是使用 SD 给线稿上色的方法:

  1. 准备关键词:正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切您不想要的东西。例如正关键词:((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style。负关键词:back and white,green,blue,purple。
  2. 选择真实系大模型,如 revAnimated v1.2.2 版本。
  3. 注意尺寸:尺寸最好和您的草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。
  4. 最重要的 ControlNet 设置:
    • 上传自己的草图到 ControlNet,点击启用。记得点?的图标让预处理器生效。
    • 点击“反转输出颜色”。
    • 在模型里面选择“canny”的模型。
    • 接着去设置前面的内容:
      • 选择合适的大模型,如想要生成二次元的图,就要选择相应的模型。
      • 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定上什么颜色。
  5. ControlNet 的预处理器分类理解:
    • 线条约束类:通过轮廓线来规定绘图的范围。
    • canny 边缘检测:适用于线条比较精细的图片。
    • scribble 涂鸦:适合粗犷的画风。
    • softedge 软边缘检测:对边缘的细节保留得更多,特别是有头发这类细节的时候。
    • lineart 线稿提取:可能是 ControlNet 目前最强的线稿上色功能。
    • mlsd 直线线条检测:一般用在建筑或者室内设计上。

您可以根据具体需求和线稿特点选择合适的方法和参数进行上色。

Content generated by AI large model, please carefully verify (powered by aily)

References

教程:线稿上色Midjourney+Stable Diffusion

关键词正关键词主要前面添加了增加照片质感常用的+mj生成线稿的关键词调整(去掉mj里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数负关键词看自己的效果添加。添加一切你不想要的东西,我前面调用了词嵌入(bad_prompt_version2-neg,badhandv4,easynegative)需要去c站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候。。却起到了反作用,强行给小猫咪小动物5个手指(建议不加,或者建议生成的时候加,放大的时候去掉)正关键词((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style,负关键词:back and white,green,blue,purple,真实系大模型:revAnimated v1.2.2版本尺寸最好和你的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸最重要的ControlNet设置上传自己的草图到ControlNet,点击启用。记得点?的图标让预处理器生效

教程:超详细的Stable Diffusion教程

随着AI绘画越来越火,很多人都会说将来可能很多画师的职业都受到威胁了但是,会用AI绘画的画师一定会比那些不会AI绘画的画师更有优势当别人为了给线稿上色,花了一天的时间而你一分钟不到就出了一张质量不错的图单是工作效率上就领先别人很多了下面这张就是我在网上随便找的一张线稿图,通过SD上色出来的一张照片这也是通过使用“ControlNet”这个功能生成的首先,我们点开"ControlNet"的状态栏①在空白的地方上传自己的线稿图②点击“启用”③点击“反转输出颜色”④在模型里面选择“canny”的模型接着去设置我们前面的内容①选择合适的大模型我想要生成二次元的图,就要选择相应的模型②关键词跟我们写关键词一样,先写照片质量的关键词(比如:最高质量,大师杰作等)接着我们就可以指定上什么颜色了比如我输入的就是:1可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛,最后还加上一个简单的背景想要色彩更加细节,就可以通过输入更多的关键词来控制照片负面关键词只要复制前面的就可以就这样不管再复杂的线稿,在SD里面都可以很快速的上好颜色

【SD】最强控制插件ControlNet(1)附模型下载

那ControlNet的预处理器有多少种呢?我们打开下拉列表就可以看到,目前最新的ControlNet v1.1.150版本,一共有37种。很多同学看到这里估计要懵了,我怎么知道该使用哪一种预处理,并且它会变成什么效果呢?接下来。我们将这些预处理器做一个分类理解。线条约束类:它可以通过轮廓线来规定绘图的范围。canny边缘检测:还是用库里的动作图作为例子,可以看到预处理器精确地找到了人物的轮廓边缘,并且进行了重绘,适用于线条比较精细的图片。scribble涂鸦:适合粗犷的画风,灵魂画手的拯救器。softedge软边缘检测:同样是保留轮廓边缘进行绘图,相比于canny,可以看到线条较粗且有柔化的部分,这样的处理对边缘的细节保留得更多,特别是有头发这类细节的时候,但未必有canny刻画的那么细。lineart线稿提取:这个是ControlNet1.1版本新出的预处理和模型,可能是ControlNet目前最强的线稿上色功能了。我从花瓣上找了一张线稿图来试验一下,这幅线稿来自画师“原画人”的创作。我们可以先通过invert预处理将白底黑线处理成黑底白线,因为ControlNet中都是黑色作为背景。然后,将处理好的图拖到左边重新载入,切换到lineart预处理器和模型进行生成。文生图关键词填写——(Best quality,masterpiece),((girl)),solo,Blue hair,white clothes,white background。点击生成,得到上色稿。我接着用canny模型也绘制了一遍,可以对比一下这两款模型上色的差别,大家自己感受一下。mlsd直线线条检测:这个线条检测和之前的几个有一些不同,它一般用在建筑或者室内设计上。

Others are asking
AI绘画如何给线稿上色?
以下是关于 AI 绘画给线稿上色的方法: 1. 使用 Stable Diffusion 上色: 点开“ControlNet”的状态栏。 在空白处上传自己的线稿图。 点击“启用”。 点击“反转输出颜色”。 在模型里选择“canny”的模型。 选择合适的大模型,如生成二次元的图就选择相应模型。 输入关键词,先写照片质量的关键词(如最高质量、大师杰作等),接着指定颜色(如 1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛),还可加上简单背景。想要色彩更细节,可输入更多关键词控制照片,负面关键词复制前面的即可。 2. Midjourney + Stable Diffusion 组合上色: 用 Midjourney 生成线稿,PS 稍微修正错误的地方。 用 ControlNet 控制,Stable Diffusion 上色。 Midjourney 生成线稿的关键词如:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 3. 进阶玩法: 用 MJ 的 Retexture 功能,写提示词或垫图功能给着色画上色。 用即梦参考功能,写提示词或垫图功能给着色画上色。 此外,着色画是未上色原稿,提供基础框架让创作者添加颜色,其艺术效果体现在色彩丰富性、情感表达、细节和纹理、创意发挥等方面。在 AI 绘画中,关键词结构思路包括基础描述、风格指定、色彩要求、细节强调等。
2024-12-04
怎么给线稿上色
以下是给线稿上色的方法: 1. 使用 Midjourney 和 Stable Diffusion 结合的方法: 生成线稿:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 PS 修正:对生成的线稿在 PS 中手动重绘错误的地方。 上色设置: 正关键词:添加增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。如“,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style”。 负关键词:根据效果添加,如“back and white,green,blue,purple”。 真实系大模型:如“revAnimated v1.2.2 版本”。 尺寸:最好和草稿图保持一致,若爆显存可保持比例缩小。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点?的图标让预处理器生效。 2. 单独使用 Stable Diffusion 的方法: 上传线稿图:点开“ControlNet”的状态栏,在空白处上传线稿图,点击“启用”和“反转输出颜色”,在模型里选择“canny”的模型。 设置内容: 选择合适的大模型,如生成二次元图选择相应模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定颜色,如“1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”,还可加上简单背景。负面关键词可复制前面的。
2024-11-08
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
线稿上色
以下是关于线稿上色(Midjourney + Stable Diffusion)的详细步骤: 1. 线稿产出:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character, black line sketch, wearing a fortune hat, wearing a collar around the neck, Carrying a huge bag containing scrolls and ingots, matching rope and straps at his wrists, Chinese element style, popular toys, blind box toys, Disney style, white background niji 5 style expressive”。 2. PS 手动重绘错误的地方:对于生成的线稿,在 PS 中手动修正一些错误,比如添加阴影等。 3. SD 上色: 关键词:正关键词包括增加照片质感常用的、mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,针对效果不好的部分添加特定关键词,如嘴巴效果不好添加张开嘴巴等,颜色可单独调整控制)、风格参数,如“, CG, unity, official art, amazing, finely detail, an extremely delicate and beautiful, extremely detailed, 3d, rendering, c4d, blender, octane render, Chinese festive color scheme, open mouth, 1 tooth, The cat has a pair of white gloves, a cute cat cartoon IP character, black line sketch, wearing a hat, wearing a collar around the neck, carrying a huge red bag, matching rope and straps at his wrists, Chinese element style, poular toys, blind box toys, Disney style”;负关键词根据效果添加,如“back and white, green, blue, purple”。 模型选择:真实系大模型选择 revAnimated v1.2.2 版本。 尺寸设置:尺寸最好和草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点击?的图标让预处理器生效。 ControlNet 的预处理器有 37 种,可分类理解为线条约束类、canny 边缘检测、scribble 涂鸦、softedge 软边缘检测、lineart 线稿提取等。其中 lineart 线稿提取可能是目前最强的线稿上色功能。例如,从花瓣上找一张线稿图,先通过 invert 预处理将白底黑线处理成黑底白线,然后拖到左边重新载入,切换到 lineart 预处理器和模型进行生成,文生图关键词填写如“, solo, Blue hair, white clothes, white background”。
2025-02-18
给老照片上色,那个AI软件最好用而且免费
以下为您推荐一款可用于给老照片上色且效果较好的免费 AI 软件——Stable Diffusion。 在使用 Stable Diffusion 给老照片上色时,新上线的 controlnet 模型中的 Recolor 模型作用显著,可将黑白图片重新上色。对于人物照片还原,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。 ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果更佳。之后将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。若要将五官重绘及让照片中的头发、衣服等元素变清晰,可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 对于内容较多、无法一一指定颜色的照片,可能需要逐个上色后用 ps 进行融合。
2025-02-02
AI能否给老照片上色?
AI 能够给老照片上色。在最近新上线的 controlnet 模型中,新增的 Recolor 模型可对黑白图片重新上色,适用于修复年代久远的老照片。比如,在给人物照片上色时,可选择 realisian 的写实大模型,通过提示词描述颜色和对应的内容。但上色过程可能存在一些问题,如颜色不精准出现在想要的位置、提示词之间相互污染、照片斑驳痕迹导致背景不统一等。为解决这些问题,可启用 cutoff 插件进行控制。另外,对于像素较低的照片,还可进一步处理使其变得更高清。具体操作可参考相关文章和教程。
2025-01-24
老照片上色,推荐工具
以下是为您推荐的老照片上色工具: 1. 字节发布的新模型 SeedEdit:能够给黑白老照片上色,还能进行元素替换、风格切换、移除无关元素等操作。 2. Stable Diffusion:将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰,再发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复。但对于内容较多的照片,可能需要逐个上色并用 PS 进行融合。
2024-12-25