Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

好用的图片无损高清放大

Answer

以下是关于图片无损高清放大的相关内容:

图像修复放大的流程分为三部分:

  1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。
  2. 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。全程采取两次高清修复,第一次修复原始图像分辨率并放大。
  3. 图像高清放大:针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,用合适的高清放大模型进行二次放大。

【SD】超清无损放大器 StableSR:

  • 作者为白马少年,发布于 2023 年 6 月 10 日 20:01,原文网址:https://mp.weixin.qq.com/s/J0HIF2U1siAen6FW-NA67A 。
  • 之前讲过在 Stable Diffusion 中绘制高清大图的方式,主要用到“脚本”和“后期处理”,其中脚本以“Ultimate SD upscale”为主,会改变原图细节;“后期处理”是 Stable Diffusion 自带的扩图功能,适用于所有图片,可按原图内容扩图,但无法还原原图不清晰的地方。
  • 今天讲的 StableSR 可算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。安装方式:在扩展面板中搜索 StableSR 直接安装,或将下载好的插件放在“……\sd-webui-aki-v4\extensions”文件夹下,安装完成后重启 webUI 即可在脚本中找到。
  • 修复需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹;StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹;VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。

测试:用一张网上找的分辨率为 512x768 的神仙姐姐照片,“Ultimate SD upscale”脚本放大哪怕重绘幅度只开到 0.1,人物细节有变化但磨皮严重,重绘幅度开到 0.4 则变化很大;“后期处理”放大 3 倍,眼神变锐利但头发仍模糊;StableSR 放大时,先调整大模型和 VAE,打开脚本下拉选择“StableSR”,模型选择对应模型,放大倍数为 3,勾选“pure noise”。

Content generated by AI large model, please carefully verify (powered by aily)

References

图像高清修复,无损放大 N 倍

整个图像修复放大的流程分为三部分:输入原始图像、修复图像、放大并重绘图像。下面将详细拆解每一部分的生成原理。[heading3]一、图像输入[content]第一部分添加Load Image节点加载图像,只需上传需要处理的图片即可。不建议上传大分辨率的图片,图片分辨率越大,处理的时间就越长。[heading3]二、图像高清修复[content]第二部分进行高清修复,把原本模糊的图片修复,并进行2倍放大。Checkpoint大模型使用Iceclear/StableSR,这是一种新颖的方法来利用封装在预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率(SR)。具体来说,就是通过时间感知编码器,在不改变预先训练的合成模型的情况下实现有希望的恢复结果,从而保留生成先验并最小化训练成本。并且需要搭配Stable SR Upscaler模型才能在最大程度上修复图像,推理图片每个噪点,以还原图像。提示词部分应包含我们想要达到的目的内容,在此场景中如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)全程采取两次高清修复,这一次修复原始图像分辨率并且放大,已经很完美还原,但是分辨率并不够,继续进行下一步。[heading3]三、图像高清放大[content]这一步主要针对第一次放大修复后的图像,进行二次修复。这里用realisticVision底膜最合适,这个模型在重绘扩图放大等领域效果非常好。使用提示词反推node对图像进行画面提示词提取,搭配tile ControlNet提升画面细节感,然后需用合适的高清放大模型,对图像进行二次放大。

【SD】超清无损放大器StableSR

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-10 20:01原文网址:https://mp.weixin.qq.com/s/J0HIF2U1siAen6FW-NA67A之前,我们讲到过一期如何在Stable Diffusion中绘制高清大图——[【Stable Diffusion】如何画出商用级别的高清大图](http://mp.weixin.qq.com/s?__biz=MzA3ODY0OTc1NQ==&mid=2247486230&idx=1&sn=dde16ebbd5078661c21835c94db554dc&chksm=9fbecbe2a8c942f48cfe40eaea15ff963db9b4fe1c9a8aed330ee718bcf6720e491fc9237a7e&scene=21#wechat_redirect)。主要用到了“脚本”和“后期处理”这两种类型的方式,其中脚本以“Ultimate SD upscale”为主,这种方式主要是通过大模型重绘来实现高清化的,所以生成的图像会改变原图的一些细节;“后期处理”的方式是Stable Diffusion自带的扩图功能,适用于所有图片包括野图,它的特点就是可以完全按照原图的内容进行扩图,当然缺点是原图不清晰的地方也没有办法还原。今天要讲的放大器可以算作是“后期处理”的上位替代品,它是可以在尽可能保留原图的情况下,更精致的还原原图,这个脚本就是——StableSR。安装方式就是在扩展面板中搜索StableSR,可以直接安装。或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以在这个脚本里面找到这个放大器了。

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA ”和“VQGAN vae”。打开脚本下拉,选择“StableSR”,模型选择和大模型对应的这个,放大倍数为3,下面勾选“pure noise”。

Others are asking
有哪些好用的法律ai
以下是一些好用的法律 AI 应用场景和示例: 1. 诉讼策略制定: AI 将基于商标法等相关条款和案例法,为商标侵权案件提供诉讼策略,包括对原告商标权利的分析、被告侵权行为的评估、关键证据搜集建议、法律抗辩点及和解或调解策略。 其他例子: 为专利侵权案件制定诉讼策略,分析专利有效性、被告侵权行为及抗辩理由,提出证明侵权和计算损害赔偿的建议。 针对劳动合同纠纷案件,分析员工权益和雇主责任,提出诉讼策略,包括主张权益、证据收集重点及证明雇主违约行为。 在知识产权许可诉讼中,分析许可协议条款和双方权利义务,提出诉讼策略,包括证明许可协议违反、计算损失赔偿及可能的合同解除条件。 模拟法庭,如模拟商业合同违约的法庭审理,分析双方论点、证据和法律依据,预测判决结果,给出优化法庭陈述和证据呈现的建议。 2. 法律意见书撰写: AI 根据案件背景、证据材料和法律法规,自动撰写初步法律意见书,包含案件事实梳理、法律分析和结论。 其他例子: 针对商业秘密泄露案件,分析法律责任和赔偿范围,撰写法律意见书,提供应对策略。 为计划上市的公司提供关于公司治理结构的法律意见书,确保符合相关法规要求。 就消费者权益保护案件提供法律意见,分析商家赔偿责任和消费者维权途径,制定应对措施。 起草股权转让协议,包括转让方和受让方信息、股权转让份额、价格、支付方式和时间表、先决条件、双方权利义务、保密、违约责任和争议解决条款等。 3. 指令风格和技巧: 可指定 AI 模仿某位资深律师的逻辑严谨和言简意赅的风格,使其提供的信息更符合专业律师的沟通和表达习惯。 运用 PEMSSC 方法,如选择个性化的风格、给出参考或逻辑结构、从多个角度思考、进行总结概括、使用分隔符号区分等。 个性化风格:选择幽默且富有洞察力的风格,融入创新视角。 参考和逻辑结构:在提供法律建议时,采用 SWOT 分析法或 4P 原则等逻辑结构。 多角度思考:在分析商事诉讼时,从市场趋势、竞争对手行为、战略规划、财务状况和市场前景等角度思考诉讼策略。
2025-04-18
我想找一个好用的ai绘画,有什么推荐吗
以下是为您推荐的一些好用的 AI 绘画平台: 1. Midjourney:综合体验较好,尤其是其 v6 版本。 2. 可灵 AI:成熟的综合类工具。 3. 即梦 AI:成熟的综合类工具。 4. Krea:集成平台。 5. MewXAI:操作简单,功能丰富,包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/
2025-04-15
对于用cursor来开发,有没有好好用prompt来使cursor变得更加好用
以下是关于如何用 prompt 使 Cursor 变得更好用的相关内容: 在 prompt 方面,Devin 有一个特别有帮助的文档(https://docs.devin.ai/learnaboutdevin/prompting),它会教您什么样的 prompt 在与 Devin 沟通时最有效,比如明确定义成功的标准,如跑通某个测试或访问某个链接能对得上等。将同样的原则应用到 Cursor 中,会发现 Cursor 变得聪明很多,能自主验证任务完成情况并进行迭代。 Cursor 在生成单测方面表现出色。相对 GPT 等工具,Cursor 解决了上下文缺失和难以实现增量更新的问题。它可以向量化整个代码仓库,在生成单测代码时能同时提供目标模块及对应的上下游模块代码,生成结果更精确。例如,使用适当的 Prompt 能返回基于 Vitest 的结果,调整成本较小。 Cursor 支持使用.cursorrules 文件设定项目的系统提示词,针对不同语言可设定不同的 Prompt。@AIChain 花生做了一个 Cursor 插件解决提示语管理问题,可选择不同的.cursorrules 文件,还可从 https://cursor.directory/ 和 https://cursorlist.com/ 寻找提示词。此外,还有一个提示语小技巧,给已有的提示语追加上特定规则,可使模型在搜索资源和思考时默认使用英语,回复转换成中文,或更灵活地根据提问语言进行回复。
2025-04-14
介绍下即梦3.0的模型,为什么很多人说它好用
即梦 3.0 模型具有以下显著特点,这也是很多人认为它好用的原因: 1. 超真实: 质感提升:图片不再有磨皮过度的“假脸感”、“油腻感”,皮肤纹理、物品材质更自然。 情绪到位:人物表情不再僵硬或眼神空洞,能表现出更细腻、更有感染力的情绪,如开心、严肃、沮丧落泪等。 2. 超高清:默认能生成 1K 分辨率图片,还支持到 2K,画面更清晰,结构更准确。 3. 超专业: 影像大师:能更精准地理解电影类型(如恐怖片、爱情片、公路片)和镜头语言(如大特写、鱼眼镜头、俯视视角)。 动漫高手:动漫风格更多元(日漫、国漫、皮克斯风等),细节更丰富,色彩更统一,告别“抠图感”。 文字设计:不仅能准确生成大字、小字,还支持超多字体(细体、粗体、可爱体、毛笔字、涂鸦体等),排版更专业、更有设计感。 4. 超智能:能更好地理解自然语言描述,简单的指令也能出好图,支持“一句话 P 图”的自然语言编辑能力。 此外,即梦 3.0 在文字处理方面表现出色,不仅提升了大字的准确性、设计感和丰富度,还大幅解决了小字的稳定性问题。相比之下,在中文场景中,其他模型可能存在一些局限性,如 GPT4o 可能存在不识别某些中文字、难以生成特别设计感的字体等问题。而即梦 3.0 作为中文 AI 绘图模型,在中文的表现性上对国内用户更有用且友好。
2025-04-14
现在比较好用的AI硬件工具推荐一下,比如鼠标,眼镜,耳机啥的
以下是为您推荐的一些 AI 硬件工具: 1. 对于将 Raspberry Pi 连接到其他设备的配件,您可以参考: 防止过热的散热器 MicroUSB 转 USB 适配器,用于 Logitech 键盘的无线传感器 用于显示器的 MiniHDMI 转 HDMI 适配器 键盘和鼠标:推荐 2. 在可穿戴方面,以 GenAI 硬件为例,Meta 雷朋眼镜是具有代表性的产品。您还可以查看 GenAI 硬件榜单获取更多信息,比如: ,该榜单包含多个分类,数据来源包括 google、tiktok、twitter、亚马逊等。
2025-04-13
国内好用的文档排版AI工具
以下是国内一些好用的文档排版 AI 工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,保持原意。 3. Latex:虽不是纯粹的 AI 工具,但在学术论文排版方面广泛使用,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 此外,还有一些与文档相关的 AI 工具,如文章润色工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 制作 PPT 的 AI 工具: 1. Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。 2. 美图 AI PPT:由美图秀秀开发团队推出,通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素。 3. Mindshow:AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能。 4. 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-13
帮我找一些可以无损放大图片的ai 产品
以下是一些可以无损放大图片的 AI 产品: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 此外,以下是图片增强方面的 AI 产品排名数据: 4 月访问量(万 Visit): 1. Cutout pro 图片增强 1608 相对 3 月变化 0.023 2. Upscale media 图片增强 432 相对 3 月变化 0.073 3. ZMO AI 图片增强 338 相对 3 月变化 0.161 4. Neural.love Art 图片增强 283 相对 3 月变化 0.072 5. Topaz Photo AI 图片增强 247 相对 3 月变化 0.047 6. VanceAI 图片增强 247 相对 3 月变化 0.078 7. bigjpgAI 图片无损放大 图片增强 203 相对 3 月变化 0.06 8. Img Upscaler 图片增强 203 相对 3 月变化 0.042 9. Let's Enhance 图片增强 167 相对 3 月变化 0.046 10. Akool 图片增强 122 相对 3 月变化 0.173 6 月访问量(万 Visit): 1. Cutout pro 图片增强 1408 相对 5 月变化 0.082 2. Upscale media 图片增强 433 相对 5 月变化 0.029 3. Neural.love Art 图片增强 253 相对 5 月变化 0.137 4. Img Upscaler 图片增强 244 相对 5 月变化 0.032 5. VanceAI 图片增强 239 相对 5 月变化 0.077 6. ZMO AI 图片增强 221 相对 5 月变化 0.153 7. bigjpgAI 图片无损放大 图片增强 180 相对 5 月变化 0.109 8. Topaz Photo AI/Topaz Video AI 图片增强 170 相对 5 月变化 0.224 9. Let's Enhance 图片增强 150 相对 5 月变化 0.102 10. Akool 图片增强 142 相对 5 月变化 0.193
2025-02-24
视频压缩软件推荐(清晰度最好无损,用上ai技术,支持8G容量大的mp4文件压缩)
目前市面上支持您需求的视频压缩软件相对较少。不过,您可以关注以下几款可能符合部分要求的软件: 1. HandBrake:这是一款开源的视频转码工具,虽然没有明确提及使用 AI 技术,但在压缩视频时可以较好地保持画质。 2. Adobe Premiere Pro:专业的视频编辑软件,具有一定的视频压缩功能,但其主要优势在于视频编辑,对于大文件的处理能力较强。 需要注意的是,要实现无损压缩且支持 8G 容量大的 MP4 文件,同时还运用 AI 技术,可能较难完全满足。在实际使用中,您可能需要根据具体情况进行尝试和调整。
2024-10-10
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
高清视频修复ai工具
以下为一些高清视频修复的 AI 工具: 1. 星流一站式 AI 设计工具: 高级模式下,基础模型允许使用更多的微调大模型,图片参考允许使用更多的图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法影响图像放大后的图像质量,重绘幅度与初步生成的图像的相似度,其他参数默认即可。 采样器和采样步数会影响出图质量和生成时间,随机种子和 CFG Scale 也有相应作用,脸部/手部修复利用算法对人像的脸部或者手部进行修复。 2. Pika: 发布 Pikaddition 能力,可以将用户图片物体融合到拍摄视频,不会改变原视频且保证新视频创意效果自然。 支持用户自行上传视频(视频时长需 5s 以上),支持物体、人物(卡通、真人)图像,有 15 次免费尝试机会。 使用方法:进入 Pika 官网,页面底部选择 Pikaddition,上传视频、图像,输入文字描述提示词,点击确认即可。 地址:https://pika.art/ 3. Topaz Labs: 推出 Starlight 首个用于视频修复的扩散模型,只需输入素材,AI 可自动降噪、去模糊、放大、抗锯齿,无需手动调整与参数调整,达成专业视频高清修复。 目前正在 Beta 中。 地址:https://www.topazlabs.com/ 4. Tusiart: 具有高清修复功能,在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。 有 ADetailer 面部修复插件。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
能将像素低的图片高清化的AI工具
目前有一些可以将像素低的图片高清化的 AI 工具,例如: 1. Topaz Gigapixel AI:能够通过深度学习算法对图片进行放大和增强,提高清晰度和细节。 2. Adobe Photoshop 的增强功能:Photoshop 中的一些智能滤镜和插件也可以在一定程度上改善图片的清晰度。 需要注意的是,不同的工具在处理不同类型的图片时效果可能会有所差异,您可以根据具体需求进行选择和尝试。
2025-03-19
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
midjourney图怎么 放大
在 Midjourney 中,放大图像的方法如下: 放大(Upscale)将图像尺寸加倍: 精细放大(Subtle):放大图像同时尽量保持原样。 创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。 操作时,您可以点击相应的按钮进行放大。例如,在生成的图像中,点击上面的 U 1 4 即可放大一张图。 另外,使用当前默认模型版本的中途图像的默认尺寸为 1024 x 1024 像素。您可以使用 upscale 工具将文件大小增加到 2048 x 2048 或 4096 x 4096 像素。在网络浏览器中打开 Midjourney 图像,或从 Midjourney.com 下载它们以获得最大文件大小。 需要注意的是,如果没看到放大相关的按钮,可能有以下原因: 1. 该图像已经在 Discord 中生成最满意的一张,不可再放大。 2. 在 More options 文字里没打上相应的对勾。
2025-03-21
图片放大
图像放大主要通过以下几种方式实现: 1. 图像高清修复流程: 输入原始图像:添加Load Image节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用Iceclear/StableSR等模型进行修复并2倍放大,搭配Stable SR Upscaler模型和合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。 图像高清放大:对第一次放大修复后的图像进行二次修复,使用realisticVision底膜,搭配tile ControlNet提升画面细节感,选择合适的高清放大模型。 2. 利用插件和脚本: Tiled Diffusion中的MultiDiffusion方案适合图像的重绘、风格迁移和放大等功能,其中的滑块可调节分块大小、重叠像素和同时处理的分块数量。 Tiled VAE可降低VAE编解码大图所需的显存字节,分块大小可根据电脑情况调节。 3. 辅助工具: 本地工具:https://www.upscayl.org/download SD放大:扩散模型可增加更多细节 开源工作流: 相关网站: stability.ai的https://clipdrop.co/tools 画质增强magnific遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯ARChttps://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2025-03-08
comfyui tile放大
以下是关于 ComfyUI tile 放大的相关内容: 文生图工作流搭建:先左键点住 CLIP 黄点向外拖,再拖出两个 CLIP 编码器,从条件处拉出采样器,连接正负提示词和模型,还需 VE 解码器和 VE 模型,若模型无 VAE 则需加载器。 浅空间图像放大:从第一个采样器向右拉,点击按系数缩放将 later 调成 2 倍,复制采样器、VE 解码器并连接处理过的 later。 Confii 图像放大操作:从第一个采样器开始,通过一系列操作如添加 Latin 节点、连接提示词和模型、连接 VE 解码器等,并设置重绘幅度、缩放系数等参数来实现图像放大。参数设置方面,重绘幅度(降噪)决定图像改变程度,数值越高与原始图像差别越大;缩放系数默认 1.5,可调整为 2。 在 SD 中,可使用 Ultimate SD upscale 插件放大,也可在图生图中进行放大,重绘幅度设置为 0.6。放大时打开 Tiled Diffusion,方案选择 MultiDiffusion,放大算法选择 RESRGAN 4x+Anime6B,放大 2 倍。同时启用 Tiled VAE 和 controlnet 插件的 tile 模型,给图片添加细节。
2025-03-03
ComfyUI中的放大插件
ComfyUI 中的放大插件相关知识如下: 通过使用神经网络对潜在空间进行放大,无需使用 VAE 进行解码和编码,此方法比传统方式快很多且质量损失小。插件项目地址:https://github.com/Ttl/ComfyUi_NNLatentUpscale?tab=readmeovfile 。潜在表示是神经网络处理图像时生成的压缩版本,包含图像主要特征信息,处理潜在表示更快且资源消耗更少。其流程包括生成潜在表示(生成低分辨率图像)、放大潜在表示、生成高分辨率图像(将放大的潜在图像反馈到稳定扩散 UNet 中进行低噪声扩散处理)。UNet 是一种常用于图像处理的特别神经网络结构,包括编码部分(逐步缩小图像提取重要特征)、解码部分(逐步放大图像并重新组合)和跳跃连接(保留细节信息),能在放大图像时保持细节和准确性。 8 月 13 日的 ComfyUI 共学中,讨论了图像生成中分辨率和放大方式。不同模型有适合的分辨率,如 SD1.5 通用尺寸为 512×512 或 512×768,SDXL 基础尺寸为 1024×1024,生成图像前要选对尺寸。通过浅空间缩放放大图像时,直接对浅空间图片编辑放大,然后进行第二次采样和高清处理,直接放大不解码会模糊,需用较低采样系数增加细节。也可使用外置放大模型放大图像,默认放大 4 倍,可通过 resize image 节点调整尺寸,放大后要送回编码器进行采样处理。还提到图像对比节点、算力和资源获取、AI 绘图相关技术与工具、CLIP 和 CFG 的区别、搭建带 Lora 的图生图工作流等内容。 Comfyui PuLID 人物一致节点相关:节点插件 PuLID ComfyUI https://github.com/cubiq/PuLID_ComfyUI 。包括 model(使用预训练的基础文本到图像扩散模型)、pulid(加载的 PuLID 模型权重)、eva_clip(用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型)、face_analysis(使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部)、image(提供的参考图像用于插入特定 ID)、method(选择 ID 插入方法)、weight(控制 ID 插入强度)、start_at 和 end_at(控制在去噪步骤的应用阶段)、attn_mask(可选的灰度掩码图像),还有高级节点可进行更精细的生成调优。
2025-02-20
放大图片
在 AI 绘画领域,放大图片有以下相关知识: Midjourney 中放大图片的方法: 使用 /imagine 命令生成低分辨率图像选项网格,每个图像网格下方的按钮可用于创建图像的变体、升级图像或重新运行最后一个 Midjourney Bot 操作。 U1U2U3U4 按钮将图像与图像网格分开,使用旧版 Midjourney 模型版本时,U 按钮会放大图像,生成所选图像的更大版本并添加更多细节。 重做(重新滚动)按钮重新运行作业。 V1V2V3V4V 按钮创建所选网格图像的增量变化。 制作变体:创建放大图像的变体并生成包含四个选项的新网格。网页:在上打开图库中的图像,最喜欢的:标记您最好的图像,以便在 Midjourney 网站上轻松找到它们。 直接消息:如果general 或newbie 频道进展太快,Midjourney 订阅者可以在其 Discord 直接消息中与 Midjourney 机器人进行一对一的合作。 使用 Midjourney Vary Region 编辑器选择并重新生成放大图像的特定部分。Vary按钮会在中途图像放大后出现,区域差异由原始图像中的内容和您选择的区域决定,与 Midjourney 模型版本 V5.0、V5.1、V5.2、niji 5 兼容。具体操作步骤如下: 1. 生成图像:使用命令创建图像/imagine。 2. 升级图像:使用 U 按钮放大所选图像。 3. 选择不同区域:点击?️Vary按钮,打开编辑界面。 4. 选择要再生的区域:选择编辑器左下角的手绘或矩形选择工具,选择要重新生成的图像区域。注意选择的大小会影响结果,更大的选择为 Midjourney 机器人提供更多空间来生成新的创意细节,较小的选择将导致更小、更微妙的变化。无法编辑现有选择,但可以使用右上角的撤消按钮撤消多个步骤。 5. 提交您的工作:单击 Submit→按钮将您的请求发送到 Midjourney Bot。 6. 查看结果:中途机器人将处理您的作业并在您选择的区域内生成一个新的变化图像网格。 Stable Diffusion 中放大图片的相关设置: 文生图是仅通过正反向词汇描述来发送指令。在进行文本描述时,分为内容型提示词和标准化提示词,内容型提示词主要用于描述想要的画面。 采样迭代步数通常数值控制在 20 40 之间,步数越高绘画越清晰,但绘画速度也会越慢。 采样方法一般常用的为:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。有的模型会有指定的算法,搭配起来更好用。 将比例设置为 800:400,注意尺寸并非越大越好,模型的练图基本上都是按照 512x512 的框架去画,高宽比尽量在这个数值附近。太大的数值比如 1920x1080,会使 AI 做出很奇怪的构图。若想要高清的图,可以同时点选高清修复来放大图像倍率,高宽比主要是控制一个画面比例。
2025-01-15