Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想要个视频AI模糊变高清的工具

Answer

以下为您介绍两款可将视频 AI 模糊变高清的工具:

  1. Topaz Video AI:
    • 解压对应文件,推荐使用绿色版(安装包已在网盘,可直接下载)。
    • 右键管理员运行 VideoAIportable.exe 文件。
    • 导入处理好的视频。
    • 主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。
    • 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等功能。
    • 视频部分保持默认,稳定 AI 用于画面稳定和减少抖动,模式分为自动裁切和完整帧,强度在 60 左右,抖动需开启,次数一般选择 2。
    • 消除运动模糊 AI 按字面意思操作,帧插值 AI 可识别帧之间进行修复替换,增强 AI 能选择不同模型对视频整体优化,包括面部、去噪、锐化提升等。
    • 一般会选择稳定+运动模糊,若电脑配置不行,可一个一个操作,但速度较慢。
  2. FMA-Net:
    • 能将模糊低分辨率视频恢复为清晰高分辨率。
    • 可解决快速移动物体或摄像机引起的视频模糊。
    • 智能理解物体运动,改善画质,去除模糊。
    • 相关网址:http://kaist-viclab.github.io/fmanet-site/ 、https://x.com/xiaohuggg/status/1746160750610075689?s=20
Content generated by AI large model, please carefully verify (powered by aily)

References

小田:视频转绘制作视频过程中不可或缺的一环

[title]小田:视频转绘制作视频过程中不可或缺的一环[heading1]二、美女转绘[heading2]补充说明Topaz Video AI使用介绍(显卡不好的可以跳过了)这个插件用来消除视频抖动和运动模糊的一个插件。具体如何使用我们这里也大概说一下。解压好对应的文件,这里我推荐使用绿色版。(对应的安装包已经在网盘里了大家可以直接下载)。右键,管理员运行VideoAIportable.exe文件导入刚才处理好的视频这里我们可以看一下对应的主界面左边是原视频,右边是待处理视频。下面是对应的视频轨道右边的部分则是主要对视频处理的方式预设部分:主要是放大视频,提升画质,提升帧率视频部分:这里保持默认就好了,因为我们就是提升画质稳定AI:主要用于画面的稳定和减少抖动(下面会详细说明一下)消除运动模糊AI:这个没啥好说的字面意思里面就一个模型帧插值AI:这个里面主要是识别对应的帧和帧之间进行修复替换。主要有几种模型下面会具体介绍增强AI:选择不同的模型对视频进行整体的优化,包括面部,去噪,锐化提升等颗粒:没咋用过。。上面的操作真的依据电脑来的。不过一般我们都会选择稳定+运动模糊。你要实在不行你可以一个一个来操作但是那样会很慢。具体讲一下稳定AI:模式里面分为自动裁切和完整帧,因为我们做的是转绘所以自然就选择完整帧强度我这里试了一下在60就可以太高的话一些场景直接就糊了抖动需要开起来次数一般选择2保持默认不变。太高了就跟磨皮过头了一样帧插值:

XiaoHu.AI日报

?Xiaohu.AI日报「1月13日」 ✨✨✨✨✨✨✨✨1⃣️ ? FMA-Net:视频抖动问题解决方案:- FMANet能将模糊低分辨率视频恢复为清晰高分辨率。-解决快速移动物体或摄像机引起的视频模糊。-智能理解物体运动,改善画质,去除模糊。? http://kaist-viclab.github.io/fmanet-site/ ? https://x.com/xiaohuggg/status/1746160750610075689?s=20 2⃣️ ? OpenAI政策变动:军事用途的新规定:-删除了禁止技术用于军事目的的明确语言。-以前政策禁止武器开发和军事战争用途。-新政策着重于不用服务来“伤害自己或他人”。- OpenAI发言人指新政策为通用原则,更清晰易读。? https://x.com/xiaohuggg/status/1746130701794074982?s=20

XiaoHu.AI日报

?Xiaohu.AI日报「1月13日」 ✨✨✨✨✨✨✨✨1⃣️ ? FMA-Net:视频抖动问题解决方案:- FMANet能将模糊低分辨率视频恢复为清晰高分辨率。-解决快速移动物体或摄像机引起的视频模糊。-智能理解物体运动,改善画质,去除模糊。? http://kaist-viclab.github.io/fmanet-site/ ? https://x.com/xiaohuggg/status/1746160750610075689?s=20 2⃣️ ? OpenAI政策变动:军事用途的新规定:-删除了禁止技术用于军事目的的明确语言。-以前政策禁止武器开发和军事战争用途。-新政策着重于不用服务来“伤害自己或他人”。- OpenAI发言人指新政策为通用原则,更清晰易读。? https://x.com/xiaohuggg/status/1746130701794074982?s=20

Others are asking
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
高清视频修复ai工具
以下为一些高清视频修复的 AI 工具: 1. 星流一站式 AI 设计工具: 高级模式下,基础模型允许使用更多的微调大模型,图片参考允许使用更多的图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法影响图像放大后的图像质量,重绘幅度与初步生成的图像的相似度,其他参数默认即可。 采样器和采样步数会影响出图质量和生成时间,随机种子和 CFG Scale 也有相应作用,脸部/手部修复利用算法对人像的脸部或者手部进行修复。 2. Pika: 发布 Pikaddition 能力,可以将用户图片物体融合到拍摄视频,不会改变原视频且保证新视频创意效果自然。 支持用户自行上传视频(视频时长需 5s 以上),支持物体、人物(卡通、真人)图像,有 15 次免费尝试机会。 使用方法:进入 Pika 官网,页面底部选择 Pikaddition,上传视频、图像,输入文字描述提示词,点击确认即可。 地址:https://pika.art/ 3. Topaz Labs: 推出 Starlight 首个用于视频修复的扩散模型,只需输入素材,AI 可自动降噪、去模糊、放大、抗锯齿,无需手动调整与参数调整,达成专业视频高清修复。 目前正在 Beta 中。 地址:https://www.topazlabs.com/ 4. Tusiart: 具有高清修复功能,在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。 有 ADetailer 面部修复插件。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
能将像素低的图片高清化的AI工具
目前有一些可以将像素低的图片高清化的 AI 工具,例如: 1. Topaz Gigapixel AI:能够通过深度学习算法对图片进行放大和增强,提高清晰度和细节。 2. Adobe Photoshop 的增强功能:Photoshop 中的一些智能滤镜和插件也可以在一定程度上改善图片的清晰度。 需要注意的是,不同的工具在处理不同类型的图片时效果可能会有所差异,您可以根据具体需求进行选择和尝试。
2025-03-19
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
哪个ai工具可以让模糊的老照片变清晰
以下是一些可以让模糊的老照片变清晰的 AI 工具和方法: 1. 使用 Stable Diffusion : 将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。您可以参考文章——。 将图片发送到图生图当中,打开 stableSR 脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。 为了做到颜色与内容的统一,可以启用之前讲到过的一款 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。您可以参照文章——。 2. 图像放大修复在 AI 绘画领域中必不可少,旧照片重现清晰可以利用 AI 技术进行图像修复,保留珍贵回忆。以前手机拍摄的低分辨率图片,也可以用 AI 技术进行高清修复。人像高清修复方面,不需要专业相机设备,用手机拍摄的照片也能通过 AI 技术修复至高清大片。而且,AI 技术不单单只是修复图片,还可以用于图像分辨率的无限扩大且不失真。例如马斯克原始图像分辨率为 234x180 像素,高清修复扩图后可达到 1880x1440 像素,差不多达到 2k 分辨率的质量。多进行几次采样放大后,完全可以实现 8k 超清放大。
2025-02-07
把模糊人像变清楚
以下是将模糊人像变清楚的方法: 1. 首先,将照片放入后期处理中,使用 GFPGAN 算法将人脸变清晰。您可以参考文章——。这个步骤可以重绘五官,但无法将头发、衣服等元素变清晰。 2. 接着,将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。不知道的朋友可以参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 3. 对于面部修复,可以使用 GFPGAN 面部修复功能。其他参数不变,直接将 GFPGAN 参数拉到 1 即可。此功能只能修复脸部,头发、衣服、背景等不变。 4. 背景去除需要安装插件 REMBG,安装地址是 https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git。安装好之后重启,就有选项框。使用时模型选第一个 u2net,直接点击生成。若有黑边,可点击 Alpha matting 调整参数,如 Erode size:6、Foreground threshold:143、Background threshold:187,以得到无黑边图像。此外,还有专门做服装和动漫抠图的模型。 需要注意的是,修复过程中使用的一些模型和插件的安装文件,作者会放在百度云盘的链接中。
2024-12-31
我输入模糊的图片,可以生成一副相对高清的图片,请问用什么AI工具
以下是一些可以将模糊图片生成相对高清图片的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。 另外,如果您想从游戏截图升级到 KV 品质,可以参考以下 AI 工具使用方法: 目前市面上有线上和线下本地部署的两种 AI 。线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个 G 的模型,还能看其他创作者的制作的图片,但为了节约算力成本他们只支持出最高 1024X1024 左右的图,制作横板、高清等图片就会受限。线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败。 所以我们这里充分发挥线上和线下平台的优势。线上用于找参考、测试模型,线下作为主要的出图工具。在线上绘图网站的绘图广场上发现自己想要的画风,点击创作,会自动匹配创作的使用的模型 lora 和 tag。截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上。多批次、多数量地尝试不同的画风,得出最符合游戏的一款模型+lora 组合。最后在 C 站(https://civitai.com/ )上下载对应模型到本地,加载部署后就可以开始正式生图了! 关于 AI 去水印的工具,目前市面上有一些不错的选项: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术从图片中去除水印。它支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,只需上传图片,选择水印区域,然后保存并下载处理后的图片即可。这个工具还提供了其他功能,如去除文本、对象、人物、日期和贴纸等。 2. Vmake:这个工具同样提供 AI 去除图片水印的功能。用户可以上传最多 10 张图片,AI 会自动检测并移除图片上的水印。处理完成后,用户可以选择保存生成的文件。这个工具适合需要快速去除水印的用户,尤其是那些需要在社交媒体上分享图片的用户。 3. AI 改图神器:这个工具提供 AI 智能图片修复去水印的功能,可以一键去除图片中的多余物体、人物或水印,不留任何痕迹。支持直接粘贴图像或上传手机图像,操作简单方便。 这些工具各有特点,可以根据您的具体需求选择最适合您的去水印工具。
2024-11-29
我输入模糊的图片,可以生成一副相对高清的图片,请问用什么工具
以下是一些可以将模糊图片生成相对高清图片的工具和方法: 1. 图像高清修复,无损放大 N 倍: 整个流程分为输入原始图像、修复图像、放大并重绘图像三部分。 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Checkpoint 大模型如 Iceclear/StableSR 搭配 Stable SR Upscaler 模型,并设置合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。 图像高清放大:使用 realisticVision 底膜,搭配提示词反推 node 和 tile ControlNet 提升画面细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 顶部图像编辑工具中的高清放大功能,支持最大尺寸为 4K(40964096)。 放大倍率:按照倍率进行放大。 放大参数:包括变化幅度、风格类型、细节丰富度、清晰度、相似度和提示词等。 3. 【SD】: 面部修复:可使用 GFPGAN 面部修复功能,将参数拉到 1 即可。 背景去除:需安装 REMBG 插件,模型选 u2net,可通过调整 Erode size、Foreground threshold、Background threshold 等参数去除黑边。还有专门的服装和动漫抠图模型。 您可以根据自己的需求和操作习惯选择适合的工具。
2024-11-29
模糊图片如何变清晰
要将模糊图片变清晰,整个流程主要分为以下三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率的图片,因为图片分辨率越大,处理时间越长。 2. 图像高清修复: 使用 Checkpoint 大模型 Iceclear/StableSR 进行高清修复,并放大 2 倍。此模型是一种利用预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率的新颖方法,需搭配 Stable SR Upscaler 模型以最大程度修复图像,推理图片每个噪点来还原图像。 提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复。 3. 图像高清放大: 针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜最合适,此模型在重绘扩图放大等领域效果良好。 使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型对图像进行二次放大。 此外,图像高清修复还需注意以下几点: 修复必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 对于老照片,可将其放入后期处理中,使用 GFPGAN 算法将人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大,并切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
2024-11-19
模糊图片如何变清晰
要将模糊图片变清晰,整个流程主要分为以下三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率的图片,因为图片分辨率越大,处理时间越长。 2. 图像高清修复: 使用 Checkpoint 大模型 Iceclear/StableSR 进行高清修复,并放大 2 倍。此模型是一种利用预先训练的文本到图像扩散模型中的先验知识来实现盲超分辨率的新颖方法,需搭配 Stable SR Upscaler 模型以最大程度修复图像,推理图片每个噪点来还原图像。 提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复。 3. 图像高清放大: 针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜最合适,此模型在重绘扩图放大等领域效果良好。 使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型对图像进行二次放大。 此外,修复模糊图片还需注意以下几点: 修复必须要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 对于老照片,可将其放入后期处理中,使用 GFPGAN 算法将人脸变清晰。然后将图片发送到图生图当中,打开 stableSR 脚本进行放大修复。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。
2024-11-19