Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

把模糊人像变清楚

Answer

以下是将模糊人像变清楚的方法:

  1. 首先,将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。您可以参考文章——【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿。这个步骤可以重绘五官,但无法将头发、衣服等元素变清晰。
  2. 接着,将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。不知道的朋友可以参考文章——【Stable Diffusion】超清无损放大器 StableSR。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。
  3. 对于面部修复,可以使用 GFPGAN 面部修复功能。其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等不变。
  4. 背景去除需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git。安装好之后重启,就有选项框。使用时模型选第一个 u2net,直接点击生成。若有黑边,可点击 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,以得到无黑边图像。此外,还有专门做服装和动漫抠图的模型。

需要注意的是,修复过程中使用的一些模型和插件的安装文件,作者会放在百度云盘的链接中。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

【SD】图片高清化+面部修复+一键抠图,一些你不知道的事儿

我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。其他参数不变,直接将GFPGAN参数拉到1,就可以了。看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。[heading1]#背景去除[content]这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-webui-rembg.git。安装好之后重启,就有这个选项框了。使用这张图测试一下,模型就选第一个u2net,直接点击生成。抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background threshold:187。通过这个参数,我们就能一键得到没有黑边的图像了。另外,点击这个按钮,还可以直接生成蒙版。这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。这就非常方便我们做换装的处理了。还有一个专门给动漫抠图的模型。我们使用这张图测试一下。抠图效果还是可以的,可能是背景比较复杂,用时19秒。关于后期处理里面的一些冷僻小知识就介绍到这里了,如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

Others are asking
你是否可以通过照片生成乐高风格人像
可以通过照片生成乐高风格人像。例如,可以使用相关的工具和技术,像在一些图像生成软件中,通过输入照片并设置相关的风格参数,如选择乐高风格,来实现生成。同时,在生成过程中可以像指挥设计师一样,与工具进行反复交流,对不满意的地方进行修改调整。广义上的像素艺术还包括立体像素艺术(类似乐高那种),相关的咒语关键词如“Pixel art”,生成思路可以是一家像素艺术风格的餐厅等。但需要注意的是,某些工具可能无法创建真正的纯净矢量图像的像素艺术,只是将图像“像素化”的像素艺术。
2025-04-11
如果我给你一张人像图片,想看到10年以后的样子,应该用什么样的ai
如果您想看到一张人像图片中人物 10 年后的样子,可以尝试以下两种方法: 1. 利用 Stable Diffusion(SD)相关技术: 在新上线的 controlnet 模型中,Recolor 新模型可将黑白图片重新上色。对于人物照片还原,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果可能更好。但可能存在颜色不精准出现在想要位置、提示词相互污染、背景不统一等问题,此时可启用 cutoff 插件进行控制,具体可参考相关文章。 若照片像素较低,还可将其变得更高清。 2. 利用 GPT 识图功能: 对图片的内容进行细致描述,可借用 GPT 来进行,也可自行描述。例如,对人物的年龄、发型、肤色、五官、穿着、姿态、背景等进行详细描述。
2024-12-30
人工智能在电影制作和人像摄影领域的发展前景
以下是关于人工智能在电影制作和人像摄影领域的发展前景的相关信息: 在电影制作方面,艺术家亚历山大·雷本(Alexander Reben)利用人工智能生成的图像创作雕塑,并将其转化为 3D 模型。他认为人工智能如 Sora 可作为 3D 雕塑创作的起点,还提到将视频转化为 3D 模型的前景,这暗示着推动 AI 系统超越初始范围。 在整体发展上,我们已经使用先进的人工智能来推荐电视节目和电影。导航也利用人工智能规划最快路线或智能预测交通拥堵。智能手机以各种方式使用先进的人工智能。虽然这些设备曾有风险,但如今带来了巨大益处。相关白皮书阐述了在支持创新的同时提供框架以识别和解决风险,采取适度和支持创新的监管框架,不针对特定技术,而是关注 AI 的应用环境,因为特定的 AI 技术在不同应用中的风险差异巨大。 在人像摄影领域,目前没有直接相关的具体内容提及。
2024-09-23
人像照片生成视频
以下是根据你的需求为你生成的文章: 人像照片生成视频的方法 AI 数字人 DID、KreadoAI 和 Sadtalker 等工具都可以将人像照片生成视频,以下是具体的使用方法: DID: 1. 点击,点击右上角的 Create vedio。 2. 选择人物形象,可以点击 ADD 添加你的照片,或者使用 DID 给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击 Generate vedio 就可以生成一段视频。 KreadoAI: 1. 点击,注册后获得 120 免费 k 币,选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 Sadtalker: 1. 打开 Sadtalker 软件,对图片进行预处理。crop 只截取图片的头部,full 就是保留整张照片,下面的勾选项已经有文字解释,可以自己试几次。 2. 点击 generate,由于涉及到视频的推理和转换,输出时间要远远大于 AI 绘图和 sovit 的声音推理,需耐心等待。 3. 导入音频,预计需要 35 分钟(3060 12g 显卡)。 4. 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 5. 完成后,可以打开输出目录或者下载视频文件。 以上是一些人像照片生成视频的方法,你可以根据自己的需求选择适合的工具。
2024-05-26
是否有对比两张人像相似度的工具
目前有一些可以对比两张人像相似度的工具和技术,它们主要基于计算机视觉和人脸识别技术。以下是一些常见的选择: 1. 在线人脸比对工具 网上有一些免费或付费的在线人脸比对工具,例如 Face++、澄云人脸核身等,可以上传两张人像图片,系统会给出一个相似度评分。 2. Python 人脸识别库 像 face_recognition、dlib、OpenCV 等 Python 库都内置了人脸识别和相似度计算的功能,你可以用几行代码实现图片人脸比对。 3. 人脸识别云服务 一些科技公司提供了人脸识别的云 API 服务,如亚马逊 Rekognition、微软 Azure Face API、百度 AI 云人体分析等,可通过调用 API 获取两张图片的相似度。 4. 开源人脸识别引擎 有些知名的开源人脸识别系统如 FaceNet、ArcFace、InsightFace 等,你可以下载源码在本地部署,利用它们的相似度判断能力。 5. 人工智能应用平台 一些面向普通用户的 AI 平台如 PandorAI、PicoGPT 等,集成了人脸比对的功能模块,提供在线体验或调用接口。 使用这些工具前,通常需要先完成注册和人脸数据采集等准备工作。在选择时你可以考虑性能、便捷性、隐私安全、成本等因素。目前的人脸识别技术虽已相当精准,但也面临一些道德和法律挑战,使用时需谨慎。
2024-04-19
有开源的支持实时让图片人像说话的项目吗?
关于您提到的开源项目,用于实时让图片人像说话,我找到了几个相关的开源项目,这些项目均支持从音频中学习生成3D运动系数,并使用3D面部渲染器来生成头部运动,从而实现图片加音频生成高质量视频的功能。 1. SadTalker:由西安交通大学开源的SadTalker模型,可以通过音频学习生成3D运动系数,使用3D面部渲染器生成头部运动,实现图片加音频生成高质量视频的功能。SadTalker支持stable diffusion webui,可以结合一段音频合成面部说话的视频。 2. DreamTalk:由清华大学、阿里巴巴和华中科大共同开发的基于扩散模型的开源框架,可以让人物照片说话,支持包括歌曲、多种语言的语音、嘈杂的音频在内的各种声音匹配让人物头像说话。DreamTalk包含降噪网络、风格感知唇部专家和风格预测器等关键组件,能够生成富有表现力的面孔,并减少对昂贵的风格参考的依赖。 3. 这两个项目都是开源的,提供了详细的安装和使用指南,可以作为搭建实时让图片人像说话系统的参考。
2024-04-17
哪个ai工具可以让模糊的老照片变清晰
以下是一些可以让模糊的老照片变清晰的 AI 工具和方法: 1. 使用 Stable Diffusion : 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。您可以参考文章——。 将图片发送到图生图当中,打开 stableSR 脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。 为了做到颜色与内容的统一,可以启用之前讲到过的一款 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。您可以参照文章——。 2. 图像放大修复在 AI 绘画领域中必不可少,旧照片重现清晰可以利用 AI 技术进行图像修复,保留珍贵回忆。以前手机拍摄的低分辨率图片,也可以用 AI 技术进行高清修复。人像高清修复方面,不需要专业相机设备,用手机拍摄的照片也能通过 AI 技术修复至高清大片。而且,AI 技术不单单只是修复图片,还可以用于图像分辨率的无限扩大且不失真。例如马斯克原始图像分辨率为 234x180 像素,高清修复扩图后可达到 1880x1440 像素,差不多达到 2k 分辨率的质量。多进行几次采样放大后,完全可以实现 8k 超清放大。
2025-02-07
我输入模糊的图片,可以生成一副相对高清的图片,请问用什么AI工具
以下是一些可以将模糊图片生成相对高清图片的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。 另外,如果您想从游戏截图升级到 KV 品质,可以参考以下 AI 工具使用方法: 目前市面上有线上和线下本地部署的两种 AI 。线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个 G 的模型,还能看其他创作者的制作的图片,但为了节约算力成本他们只支持出最高 1024X1024 左右的图,制作横板、高清等图片就会受限。线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败。 所以我们这里充分发挥线上和线下平台的优势。线上用于找参考、测试模型,线下作为主要的出图工具。在线上绘图网站的绘图广场上发现自己想要的画风,点击创作,会自动匹配创作的使用的模型 lora 和 tag。截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上。多批次、多数量地尝试不同的画风,得出最符合游戏的一款模型+lora 组合。最后在 C 站(https://civitai.com/ )上下载对应模型到本地,加载部署后就可以开始正式生图了! 关于 AI 去水印的工具,目前市面上有一些不错的选项: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术从图片中去除水印。它支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,只需上传图片,选择水印区域,然后保存并下载处理后的图片即可。这个工具还提供了其他功能,如去除文本、对象、人物、日期和贴纸等。 2. Vmake:这个工具同样提供 AI 去除图片水印的功能。用户可以上传最多 10 张图片,AI 会自动检测并移除图片上的水印。处理完成后,用户可以选择保存生成的文件。这个工具适合需要快速去除水印的用户,尤其是那些需要在社交媒体上分享图片的用户。 3. AI 改图神器:这个工具提供 AI 智能图片修复去水印的功能,可以一键去除图片中的多余物体、人物或水印,不留任何痕迹。支持直接粘贴图像或上传手机图像,操作简单方便。 这些工具各有特点,可以根据您的具体需求选择最适合您的去水印工具。
2024-11-29
我输入模糊的图片,可以生成一副相对高清的图片,请问用什么工具
以下是一些可以将模糊图片生成相对高清图片的工具和方法: 1. 图像高清修复,无损放大 N 倍: 整个流程分为输入原始图像、修复图像、放大并重绘图像三部分。 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Checkpoint 大模型如 Iceclear/StableSR 搭配 Stable SR Upscaler 模型,并设置合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。 图像高清放大:使用 realisticVision 底膜,搭配提示词反推 node 和 tile ControlNet 提升画面细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 顶部图像编辑工具中的高清放大功能,支持最大尺寸为 4K(40964096)。 放大倍率:按照倍率进行放大。 放大参数:包括变化幅度、风格类型、细节丰富度、清晰度、相似度和提示词等。 3. 【SD】: 面部修复:可使用 GFPGAN 面部修复功能,将参数拉到 1 即可。 背景去除:需安装 REMBG 插件,模型选 u2net,可通过调整 Erode size、Foreground threshold、Background threshold 等参数去除黑边。还有专门的服装和动漫抠图模型。 您可以根据自己的需求和操作习惯选择适合的工具。
2024-11-29
模糊图片如何变清晰
要将模糊图片变清晰,整个流程主要分为以下三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率的图片,因为图片分辨率越大,处理时间越长。 2. 图像高清修复: 使用 Checkpoint 大模型 Iceclear/StableSR 进行高清修复,并放大 2 倍。此模型是一种利用预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率的新颖方法,需搭配 Stable SR Upscaler 模型以最大程度修复图像,推理图片每个噪点来还原图像。 提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复。 3. 图像高清放大: 针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜最合适,此模型在重绘扩图放大等领域效果良好。 使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型对图像进行二次放大。 此外,图像高清修复还需注意以下几点: 修复必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 对于老照片,可将其放入后期处理中,使用 GFPGAN 算法将人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大,并切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
2024-11-19
模糊图片如何变清晰
要将模糊图片变清晰,整个流程主要分为以下三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率的图片,因为图片分辨率越大,处理时间越长。 2. 图像高清修复: 使用 Checkpoint 大模型 Iceclear/StableSR 进行高清修复,并放大 2 倍。此模型是一种利用预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率的新颖方法,需搭配 Stable SR Upscaler 模型以最大程度修复图像,推理图片每个噪点来还原图像。 提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复。 3. 图像高清放大: 针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜最合适,此模型在重绘扩图放大等领域效果良好。 使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型对图像进行二次放大。 此外,修复模糊图片还需注意以下几点: 修复必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 对于老照片,可将其放入后期处理中,使用 GFPGAN 算法将人脸变清晰。然后将图片发送到图生图当中,打开 stableSR 脚本进行放大修复。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。
2024-11-19
我想要个视频AI模糊变高清的工具
以下为您介绍两款可将视频 AI 模糊变高清的工具: 1. Topaz Video AI: 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。 右键管理员运行 VideoAIportable.exe 文件。 导入处理好的视频。 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等功能。 视频部分保持默认,稳定 AI 用于画面稳定和减少抖动,模式分为自动裁切和完整帧,强度在 60 左右,抖动需开启,次数一般选择 2。 消除运动模糊 AI 按字面意思操作,帧插值 AI 可识别帧之间进行修复替换,增强 AI 能选择不同模型对视频整体优化,包括面部、去噪、锐化提升等。 一般会选择稳定+运动模糊,若电脑配置不行,可一个一个操作,但速度较慢。 2. FMANet: 能将模糊低分辨率视频恢复为清晰高分辨率。 可解决快速移动物体或摄像机引起的视频模糊。 智能理解物体运动,改善画质,去除模糊。 相关网址:http://kaistviclab.github.io/fmanetsite/ 、https://x.com/xiaohuggg/status/1746160750610075689?s=20
2024-10-22
什么是人工智能,请用最简单的一句话说清楚
人工智能是一门研究如何使计算机表现出智能行为,例如完成像从照片判断人的年龄这类无法明确编程的任务的科学。它是让电脑在不被编程的情况下能够自己学习的研究领域,像 Genie 模型通过机器学习能从大量视频中自己找出规律并理解内容。
2024-08-17