Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

给老照片上色,那个AI软件最好用而且免费

Answer

以下为您推荐一款可用于给老照片上色且效果较好的免费 AI 软件——Stable Diffusion。

在使用 Stable Diffusion 给老照片上色时,新上线的 controlnet 模型中的 Recolor 模型作用显著,可将黑白图片重新上色。对于人物照片还原,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。

ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果更佳。之后将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。若要将五官重绘及让照片中的头发、衣服等元素变清晰,可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。

对于内容较多、无法一一指定颜色的照片,可能需要逐个上色后用 ps 进行融合。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-10 19:00原文网址:https://mp.weixin.qq.com/s/-hlnSTpGMozJ_hfQuABgLw在最近新上线的controlnet模型中,除了我们之前测试过的一众适配sdxl的模型以外,还增加了一款名为Recolor的新模型,它的作用是可以将黑白的图片进行重新上色。看到这个功能,我首先想到的就是可以用它来修复那些已经年代久远的老照片。毕竟在以前那个年代,没有现在这种可以永远保存的数码拍照技术,很多洗出来的照片也都随着岁月的流逝而褪去了色彩。如果能用AI技术恢复这些往日的时光,也许能唤醒我们心底的一些温暖。于是,我联系爸妈帮我找来了一些他们珍存的照片。他们也很热心于这件事情,立马给我发来了一大堆照片,其中有很多我也没见过的他们年轻的时候的样子,还包括我爷爷奶奶外公外婆那一辈的回忆。虽然很多照片都是黑白的,但是仍然能感受到那个时候的阳光和清风。这是我的奶奶,她离开已经有十几年了,年轻时候留下的照片不多,这一张算是保存得很好的了,那个年代的人物照片总能让人感受到一种独特的气质。既然是人物照片的还原,我这里就选择了realisian的写实大模型。提示词直接描述颜色和对应的内容。比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。因为黑白照片,颜色无从判断,所以有些只能靠猜测了。ControlNet这里选择Recolor,预处理器有两个,经过我的测试,选择“recolor_luminance”的效果会更好一些。

【SD】用AI给老照片上色,岁月不改它模样

将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】用AI给老照片上色,岁月不改它模样

同样难度的还有这张照片,是外婆带着我妈和舅舅拍的合影,应该是在影棚里拍的,背景是张画。这张照片的难点主要还是内容太多了,无法一一指定颜色,所以我只能逐个上色,再用ps进行融合。过程太繁琐我就不写了,直接上图。看着这些老照片一张一张的翻新,思绪也会沉浸在某段时光里。也许不曾去过,但又总觉得似曾相识;也许相隔遥远,但又觉得触手可及。小镇的深处一条长长的街巷高高的红砖房,旧旧的玻璃窗蜿蜒的藤蔓带着淡淡泥土香缠绕这慢慢的时光日落前,挥挥手说他没有等太久夜如水,月如钩总有人等在回家的路口熟悉的地方依然安详岁月不改它模样风吹过树梢,沙沙地响把故事慢慢讲-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

Others are asking
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
线稿上色
以下是关于线稿上色(Midjourney + Stable Diffusion)的详细步骤: 1. 线稿产出:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character, black line sketch, wearing a fortune hat, wearing a collar around the neck, Carrying a huge bag containing scrolls and ingots, matching rope and straps at his wrists, Chinese element style, popular toys, blind box toys, Disney style, white background niji 5 style expressive”。 2. PS 手动重绘错误的地方:对于生成的线稿,在 PS 中手动修正一些错误,比如添加阴影等。 3. SD 上色: 关键词:正关键词包括增加照片质感常用的、mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,针对效果不好的部分添加特定关键词,如嘴巴效果不好添加张开嘴巴等,颜色可单独调整控制)、风格参数,如“, CG, unity, official art, amazing, finely detail, an extremely delicate and beautiful, extremely detailed, 3d, rendering, c4d, blender, octane render, Chinese festive color scheme, open mouth, 1 tooth, The cat has a pair of white gloves, a cute cat cartoon IP character, black line sketch, wearing a hat, wearing a collar around the neck, carrying a huge red bag, matching rope and straps at his wrists, Chinese element style, poular toys, blind box toys, Disney style”;负关键词根据效果添加,如“back and white, green, blue, purple”。 模型选择:真实系大模型选择 revAnimated v1.2.2 版本。 尺寸设置:尺寸最好和草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点击?的图标让预处理器生效。 ControlNet 的预处理器有 37 种,可分类理解为线条约束类、canny 边缘检测、scribble 涂鸦、softedge 软边缘检测、lineart 线稿提取等。其中 lineart 线稿提取可能是目前最强的线稿上色功能。例如,从花瓣上找一张线稿图,先通过 invert 预处理将白底黑线处理成黑底白线,然后拖到左边重新载入,切换到 lineart 预处理器和模型进行生成,文生图关键词填写如“, solo, Blue hair, white clothes, white background”。
2025-02-18
AI能否给老照片上色?
AI 能够给老照片上色。在最近新上线的 controlnet 模型中,新增的 Recolor 模型可对黑白图片重新上色,适用于修复年代久远的老照片。比如,在给人物照片上色时,可选择 realisian 的写实大模型,通过提示词描述颜色和对应的内容。但上色过程可能存在一些问题,如颜色不精准出现在想要的位置、提示词之间相互污染、照片斑驳痕迹导致背景不统一等。为解决这些问题,可启用 cutoff 插件进行控制。另外,对于像素较低的照片,还可进一步处理使其变得更高清。具体操作可参考相关文章和教程。
2025-01-24
老照片上色,推荐工具
以下是为您推荐的老照片上色工具: 1. 字节发布的新模型 SeedEdit:能够给黑白老照片上色,还能进行元素替换、风格切换、移除无关元素等操作。 2. Stable Diffusion:将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰,再发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复。但对于内容较多的照片,可能需要逐个上色并用 PS 进行融合。
2024-12-25
如何用SD给线稿上色
以下是使用 SD 给线稿上色的方法: 1. 准备关键词:正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切您不想要的东西。例如正关键词:,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style。负关键词:back and white,green,blue,purple。 2. 选择真实系大模型,如 revAnimated v1.2.2 版本。 3. 注意尺寸:尺寸最好和您的草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 4. 最重要的 ControlNet 设置: 上传自己的草图到 ControlNet,点击启用。记得点?的图标让预处理器生效。 点击“反转输出颜色”。 在模型里面选择“canny”的模型。 接着去设置前面的内容: 选择合适的大模型,如想要生成二次元的图,就要选择相应的模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定上什么颜色。 5. ControlNet 的预处理器分类理解: 线条约束类:通过轮廓线来规定绘图的范围。 canny 边缘检测:适用于线条比较精细的图片。 scribble 涂鸦:适合粗犷的画风。 softedge 软边缘检测:对边缘的细节保留得更多,特别是有头发这类细节的时候。 lineart 线稿提取:可能是 ControlNet 目前最强的线稿上色功能。 mlsd 直线线条检测:一般用在建筑或者室内设计上。 您可以根据具体需求和线稿特点选择合适的方法和参数进行上色。
2024-12-04
AI绘画如何给线稿上色?
以下是关于 AI 绘画给线稿上色的方法: 1. 使用 Stable Diffusion 上色: 点开“ControlNet”的状态栏。 在空白处上传自己的线稿图。 点击“启用”。 点击“反转输出颜色”。 在模型里选择“canny”的模型。 选择合适的大模型,如生成二次元的图就选择相应模型。 输入关键词,先写照片质量的关键词(如最高质量、大师杰作等),接着指定颜色(如 1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛),还可加上简单背景。想要色彩更细节,可输入更多关键词控制照片,负面关键词复制前面的即可。 2. Midjourney + Stable Diffusion 组合上色: 用 Midjourney 生成线稿,PS 稍微修正错误的地方。 用 ControlNet 控制,Stable Diffusion 上色。 Midjourney 生成线稿的关键词如:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 3. 进阶玩法: 用 MJ 的 Retexture 功能,写提示词或垫图功能给着色画上色。 用即梦参考功能,写提示词或垫图功能给着色画上色。 此外,着色画是未上色原稿,提供基础框架让创作者添加颜色,其艺术效果体现在色彩丰富性、情感表达、细节和纹理、创意发挥等方面。在 AI 绘画中,关键词结构思路包括基础描述、风格指定、色彩要求、细节强调等。
2024-12-04
怎么给线稿上色
以下是给线稿上色的方法: 1. 使用 Midjourney 和 Stable Diffusion 结合的方法: 生成线稿:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 PS 修正:对生成的线稿在 PS 中手动重绘错误的地方。 上色设置: 正关键词:添加增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。如“,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style”。 负关键词:根据效果添加,如“back and white,green,blue,purple”。 真实系大模型:如“revAnimated v1.2.2 版本”。 尺寸:最好和草稿图保持一致,若爆显存可保持比例缩小。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点?的图标让预处理器生效。 2. 单独使用 Stable Diffusion 的方法: 上传线稿图:点开“ControlNet”的状态栏,在空白处上传线稿图,点击“启用”和“反转输出颜色”,在模型里选择“canny”的模型。 设置内容: 选择合适的大模型,如生成二次元图选择相应模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定颜色,如“1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”,还可加上简单背景。负面关键词可复制前面的。
2024-11-08
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 等技术,只需要一句话就可以实现部分修复需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。如果直接上色效果不佳,可以只给场景方向的提示词,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前较为复杂的工作流现在只需十几个基础节点就能实现同样甚至更好的效果。在参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时需将强度降低小于 0.5。如果发现出来的图片质量细节不够,可以选择 fp16 版本的 T5 Clip。
2025-04-10
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式变得更加便捷高效。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 只需要一句话,就可以实现部分需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可只给场景方向,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只需十几个基础节点就能实现同样效果甚至更好。一般先确认放大倍数,然后根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和鲜艳色彩增强,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-09
人工智能软件现在有哪些
以下是一些常见的人工智能软件: 1. 在自然语言处理和神经科学应用方面,大型语言模型取得了进展,拥有更先进的工具用于解码大脑状态和分析复杂脑部活动。 2. 在艺术创作领域,有涉及知识产权保护的相关软件,如软件工程师在设计时应确保生成内容合法合规、注重用户知识产权保护等。创作者使用此类软件时,应了解自身权利并做好保护。 3. 在线 TTS 工具方面,如 Eleven Labs(https://elevenlabs.io/)、Speechify(https://speechify.com/)、Azure AI Speech Studio(https://speech.microsoft.com/portal)、Voicemaker(https://voicemaker.in/)等。这些工具可将文本转换为语音,具有不同的特点和适用场景。但请注意,相关内容由 AI 大模型生成,请仔细甄别。
2025-04-15
AI办公相关的课程、软件教学
以下是为您提供的 AI 办公相关的课程和软件教学资源: 1. 90 分钟从 0 开始打造您的第一个 Coze 应用: 课程包含从零开始的应用界面教学,涉及过年相关应用。 介绍了当前承接的业务,包括辅导、培训、定制及企业 AI 落地等。 提到 11 月底应用推出背后的情况,包括社区对 AI 应用的呼声和功能需求挖掘。 2. AI 视频的软件教程: 涵盖了众多工具,如剪映、Dreamina、Pika、StableVideo、Pixverse、morphstudio、Runway Gen3、Adobe Firefly 以及清影等。 3. 张翼然:用 AI 为教师减负(3H).pdf: 包括教师的 AI 减负指南,生成式人工智能在教学中的应用。 介绍了教师使用 AI 的小技巧,如提示词设计公式之——RTFC。 涉及使用 AI 生成图片的方法与注意事项,AI 自动生成 PPT 功能。 展示了通过小程序实现文字与声音、视频的转化,自定义数字人形象进行教学。 展示了便捷的课堂教学工具与 Ai 课件制作,探讨了 A 生成视频与手工制作视频的教学效果差异。 强调了教育资源与版权问题,教师能力重塑,极简思维的教育应用,生成式 AI 教学策略。 包括 AI 技术助力教育管理和辅助教学实践,如班级与学校管理中的行政职日流程简化、听课记录自动化等。
2025-04-12
grok API能用在什么软件上
Grok API 可以用在以下软件上: 1. 扣子工作流:可以用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,还能参考相关教程将扣子接入微信机器人,但有微信封号风险。 2. 沉浸式翻译:由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,比如沉浸式翻译这个网页翻译工具。 3. 手机类 APP:比如通过快捷方式接入 Siri。 此外,xAI 发布的 Grok 3 API 提供了多个模型版本,如 grok3beta、mini、fast 等,满足不同场景需求,上下文窗口达 131K,支持图像输入输出,但当前不支持联网或实时访问外部网页与数据。
2025-04-12
人脸识别软件
以下是为您整合的关于人脸识别软件的相关信息: 在“【已结束】AI 创客松 参与同学自我介绍和分类”中,Dylan 擅长人脸识别算法和动作捕捉产品。 在“SmartBotX 模块化桌面机器人——说明文档”中,桌面客户端提供面部识别或跟踪功能的展示,可能用于安全监控、用户识别或交互式体验。 在“14、LayerStyle 副本”中,使用 YoloV8 模型可以检测人脸、手部 box 区域或者人物分割,支持输出所选择数量的通道。同时,Mediapipe 模型可以检测人脸五官,分割左右眉、眼睛、嘴唇和牙齿。
2025-04-12
文章配图的智能体或者软件
以下是为您整理的关于文章配图的智能体或软件的相关内容: 在《智变时代/全面理解机器智能与生成式 AI 加速的新工业革命》中提到,智能时代,智能应用会从有形界面消失,变成无所不在的助理或智能体,辅助甚至直接完成任务。文中还配有图 2.10:智能代理将改变企业组织架构。 在《XAIR:AI 智能体平台对决:腾讯元器与字节扣子的创新之路》中,个人实操案例部分提到为本篇文章配图的相关情况,但生成结果显示问题描述不够清楚。之后换提示词“那你给我生成搞笑图片吧,让人一看就有继续看下去的动力那种,需要一张公众号封面和一张配图”,得到了相应结果。同样的提示词,元器某应用也有生成。此外,文中还提到在搭建 bot 过程中存在工作流未成功触发导致访谈记录未成功存储入库的问题。
2025-04-11
和manus差不多的软件
以下是与 Manus 模式类似的软件: 1. Same.dev:像素级 UI 还原,自动生成对应代码,云端运行,支持自定义编码,但免费额度使用快,需输入 API,目前网站被标记危险。相关链接: 2. Genspark Super Agent:作为世界上首个 MixtureofAgents 系统,集多种功能于一体,能自动完成复杂任务。在 GAIA 基准测试的三个级别中得分均高于 Manus,具有近乎即时的结果、执行过程中错误和幻觉显著减少、让用户掌控一切并能指导和优化输出等优势。它是世界上第一个 MixtureofAgents 系统,利用最佳模型、工具和数据集来执行不同的任务,比如基础智能体的对话、图片、视频生成以及翻译。
2025-04-11