Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

老照片修复有手机端吗

Answer

老照片修复在手机端是可行的。以下是一些相关信息:

  • 图像放大修复是 AI 绘画领域的重要部分,能应用于旧照片重现清晰、人像高清修复等场景。以前手机拍摄的低分辨率图片,如今可用 AI 技术进行高清修复。用手机也能拍摄出高清大片,提升照片质量。
  • 【SD】用 AI 给老照片上色时,可将照片放入后期处理,使用 GFPGAN 算法让人脸变清晰。还可将图片发送到图生图中,打开 stableSR 脚本放大。切换到 sd2.1 模型修复,启用 MutiDiffusion 插件等。对于复杂的照片,可在 PS 里调整角度和裁切,放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,加入第二个 controlnet 控制颜色。
Content generated by AI large model, please carefully verify (powered by aily)

References

图像高清修复,无损放大 N 倍

?图像放大修复是AI绘画领域中必不可少的一部分,所有的技术需结合实际落地,才有价值与意义。能应用在哪些场景?旧照片重现清晰利用AI技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵的回忆。以前手机拍摄的图片分辨率较低,如果放到如今智能手机上观看,图片将会非常模糊,这时可以用AI技术进行高清修复图像。人像高清修复,手机也能拍摄高清大片不仅仅是修复风景图片上,也适用于人像的修复。不需要专业相机设备,用手机也可以拍摄出高清大片,让每一张人像照片都焕发新生,不论是因为曝光不当、失焦或其他问题导致的不清晰,运用最新的图片清晰修复技术,立刻提升照片质量至高清境界。这不单单只是修复图片,可以用作于图像分辨率的无限扩大且不失真。下面马斯克原始图像分辨率为234x180像素,高清修复扩图后达到1880x1440像素,这且只进行了一次扩大就对原图像分辨率提升了8倍,差不多达到2k分辨率的质量。多进行几次采样放大后,完全可以实现8k超清放大。

【SD】用AI给老照片上色,岁月不改它模样

将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。

【SD】用AI给老照片上色,岁月不改它模样

启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。对比一下前后的效果,那个流逝的时光仿佛又回来了,外婆看到后也非常高兴,在微信上连连夸赞。

Others are asking
老照片修复
老照片修复是一个具有一定复杂性但通过 AI 技术可以实现较好效果的领域。以下是一些相关信息: 在解决老照片修复问题上,以往 AI 往往需要搭建极为复杂的工作流,而现在 GPT 4O 只需要一句话就可以实现。 对于老照片上色,可启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够的情况下将图片放大到足够倍数。 对于复杂的老照片,如人物多、场景复杂、像素低的情况,可在 PS 里进行角度调整和照片裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 模型,给出简单关键词如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的工作流较复杂,现在只要十几个基础节点就能实现同样甚至更好的效果。一般先确认放大倍数,再根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用特定训练方式处理各种真实世界中可能遇到的图像退化情况。Flux Ultimator 能增加小细节和放大色调丰富性、深度,在 0.1 强度设置下有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。若图片质量细节不够,可选择 fp16 版本的 T5 Clip。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
如何让老照片变清晰
以下是让老照片变清晰的方法: 1. 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。您可以参考文章。 2. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。您可以参考文章。 3. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 4. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 5. 对于复杂的照片,可先在 ps 里面进行角度调整和照片裁切,然后使用上述步骤进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 另外,进行超清无损放大修复需要准备以下文件和操作: 1. 使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. 将 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 将 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。
2025-04-13
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,实现方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,例如 GPT 4O 只需要一句话,就可以实现部分修复需求。 在具体的修复方法中,如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可放弃人物服装的颜色指定,只给场景方向,让 AI 自行决定,还可加入第二个 controlnet 来控制颜色。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只要十几个基础的节点就能实现同样的效果甚至更好。其中涉及参数的调节,一般先确认放大的倍数,然后根据出来的图片来调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-11
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式也在不断改进和优化。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 等技术,只需要一句话就可以实现部分修复需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。如果直接上色效果不佳,可以只给场景方向的提示词,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,并给出简单的关键词,如蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前较为复杂的工作流现在只需十几个基础节点就能实现同样甚至更好的效果。在参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用时需将强度降低小于 0.5。如果发现出来的图片质量细节不够,可以选择 fp16 版本的 T5 Clip。
2025-04-10
老照片修复
老照片修复是一项具有一定复杂性的工作,但随着 AI 技术的发展,处理方式变得更加便捷高效。 以往,AI 在解决老照片修复问题时,往往需要搭建极为复杂的工作流。而现在,如 GPT 4O 只需要一句话,就可以实现部分需求。 在具体的修复方法中,例如使用 SD 进行老照片上色,可以启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,在显存不够的情况下将图片放大到足够的倍数。对于复杂的老照片,如人物多、场景复杂、像素低的情况,可以先在 ps 里面进行角度调整和照片裁切,然后进行上色。若直接上色效果不佳,可只给场景方向,让 AI 自行决定颜色。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,给出简单的关键词,如“蓝天、绿树、灰石砖”。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前复杂的工作流现在只需十几个基础节点就能实现同样效果甚至更好。一般先确认放大倍数,然后根据图片调整 controlNet 的强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练。Flux Ultimator 能增加小细节和鲜艳色彩增强,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中。若图片质量细节不够,T5 Clip 选择 fp16 的版本。
2025-04-09
高清视频修复ai工具
以下为一些高清视频修复的 AI 工具: 1. 星流一站式 AI 设计工具: 高级模式下,基础模型允许使用更多的微调大模型,图片参考允许使用更多的图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法影响图像放大后的图像质量,重绘幅度与初步生成的图像的相似度,其他参数默认即可。 采样器和采样步数会影响出图质量和生成时间,随机种子和 CFG Scale 也有相应作用,脸部/手部修复利用算法对人像的脸部或者手部进行修复。 2. Pika: 发布 Pikaddition 能力,可以将用户图片物体融合到拍摄视频,不会改变原视频且保证新视频创意效果自然。 支持用户自行上传视频(视频时长需 5s 以上),支持物体、人物(卡通、真人)图像,有 15 次免费尝试机会。 使用方法:进入 Pika 官网,页面底部选择 Pikaddition,上传视频、图像,输入文字描述提示词,点击确认即可。 地址:https://pika.art/ 3. Topaz Labs: 推出 Starlight 首个用于视频修复的扩散模型,只需输入素材,AI 可自动降噪、去模糊、放大、抗锯齿,无需手动调整与参数调整,达成专业视频高清修复。 目前正在 Beta 中。 地址:https://www.topazlabs.com/ 4. Tusiart: 具有高清修复功能,在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。 有 ADetailer 面部修复插件。
2025-04-14
旧照片修复
旧照片修复是 AI 绘画领域中的一项重要应用。以下是关于旧照片修复的一些相关信息: 以往解决旧照片修复问题往往需要搭建极为复杂的工作流,现在 GPT 4O 只需要一句话就可以实现。 图像放大修复是 AI 绘画领域必不可少的一部分,利用 AI 技术进行图像修复,可以让模糊的旧照片重现清晰,保留珍贵回忆。例如,以前手机拍摄的低分辨率图片,放到如今智能手机上观看会非常模糊,这时可用 AI 技术进行高清修复。 ComfyUI 结合特定工作流,只需十几个基础节点就能实现较好的老照片修复效果。 参数调节方面,一般先确认放大倍数,然后根据出来的图片调整 controlNet 的强度。 Flux.1dev ControlNet 是为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,采用合成复杂数据退化方案进行训练,目的是让模型学会处理各种真实世界中可能遇到的图像退化情况。 Flux Ultimator 能增加小细节,增强色彩,在 0.1 的强度设置下也有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 若图片质量细节不够,可选择 T5 Clip 的 fp16 版本。
2025-04-14
照片修复
以下是关于照片修复的相关信息: 使用 Gemini 2.0 Flash 进行照片修复: 零门槛:即使不会 PS,只要会打字就能操作。 速度快:几秒钟出结果。 效果提升小技巧:指令要具体清晰,比如“把帽子改成红色,加个星星图案”;使用清晰的照片,模糊的图可能效果不佳;多尝试修改指令。 图像高清修复的实现技术拆解: 整个流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 2. 图像高清修复:使用 Iceclear/StableSR 等模型进行修复和 2 倍放大,搭配合适的提示词,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 3. 图像高清放大:用 realisticVision 底膜进行二次修复,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型二次放大。 此外,GPT 4O 在解决老照片修复等问题时,以往需要搭建复杂工作流,现在只需一句话即可实现。
2025-04-10
我想将常用的AI入口手机放在一张网页上,该如何设置waytoAGI页面
以下是关于将常用的 AI 入口放在一张网页上设置 WaytoAGI 页面的方法: 1. 点开链接就能看:不用注册,不用花钱,直接点击。 2. 想看啥就看啥:比如您想学 AI 绘画,就去看“AI 绘画”部分;想找 AI 工具,就去“工具推荐”部分。内容分得清清楚楚,想学啥都能找到。 3. 有问题还能问:如果看了还有不懂的,或者想跟别人交流,可以加入社群,大家一起讨论。 另外,关于使用 Cursor 制作您的第一个主页: 1. 在搞定一个非常简单的小游戏之后,可以做一个自己的个人介绍网站。可以先看看官网,比如 allinagi.com.cn、sboat.cn。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先会有一个初步简单的项目介绍,比如 WaytoMars 是一个制造、运营全 AI 自动驾驶的火星登陆飞船公司品牌,有着领先全球的技术实力、人才优势,预计在 2030 年推出可承载上千人,五星豪华级的全 AI 自动驾驶的火星登陆飞船。有了项目介绍后,让 AI 帮助生成一个具有前端大师级审美、极富科幻感的网站首页。首先,新建一个 waytomars 文件夹并打开,在 AI 对话框中输入上述的话,一路等待 AI 制作以及加入您的修改意见即可。 2. 如何让别人看到您的作品预览:通过将项目文件夹整体上传,就可以生成一个临时浏览链接,在不需要域名和服务器的情况下让外部也能够看到您的作品。注意:如果发现 cursor 有所卡顿,注意是不是 AI 让您在终端区或者对话区确认重要操作,左下角将 ask every time 修改为 auto run 就可以全自动化了。 WaytoAGI 就是一个帮您快速入门 AI、学会用 AI 搞事情的“武器库”。不管您是完全不懂 AI 的小白,还是想用 AI 赚钱的普通人,它都能帮到您。AI 是未来的趋势,现在学一点都不晚,如果您想了解 AI、用 AI、甚至靠 AI 搞钱,WaytoAGI 就是您最该看的“AI 宝典”。
2025-04-14
可以生成手机长图条漫AI
以下为您介绍可以生成手机长图条漫的 AI 工具 Anifusion: 网站:https://anifusion.ai/ Twitter 账号:https://x.com/anifusion_ai Anifusion 是一款基于人工智能的在线工具,旨在帮助用户轻松创建专业质量的漫画和动漫作品,即使没有绘画技能,用户只需输入文本描述,Anifusion 的 AI 就能将其转化为完整的漫画页面或动漫图像。 主要功能: AI 文本生成漫画:用户输入描述性提示,AI 会根据文本生成相应的漫画页面或面板。 直观的布局工具:提供预设模板,用户也可自定义漫画布局,设计独特的面板结构。 强大的画布编辑器:在浏览器中直接优化和完善 AI 生成的艺术作品,调整角色姿势、面部细节等。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型,实现不同的艺术风格和效果。 商业使用权:用户对在平台上创作的所有作品拥有完整的商业使用权,可自由用于商业目的。 使用案例: 独立漫画创作:有抱负的漫画艺术家无需高级绘画技能即可将他们的故事变为现实。 快速原型设计:专业艺术家可以在详细插图之前快速可视化故事概念和布局。 教育内容:教师和教育工作者可以为课程和演示创建引人入胜的视觉内容。 营销材料:企业可以制作动漫风格的促销漫画或用于活动的分镜脚本。 粉丝艺术和同人志:粉丝可以基于他们最喜欢的动漫和漫画系列创作衍生作品。 优点: 非艺术家也可轻松进行漫画创作。 基于浏览器的全方位解决方案,无需安装额外软件。 快速迭代和原型设计能力。 创作的全部商业权利。 缺点:(未提及)
2025-03-10
怎么用AI实现手机自动记账
目前关于使用 AI 实现手机自动记账的方法,暂时没有相关内容。但一般来说,可能需要以下步骤:首先,需要选择一款支持 AI 功能的记账应用程序;其次,对该应用进行相关设置,例如关联银行账户、设定记账分类规则等;然后,利用应用中的 AI 功能,如智能识别消费记录、自动分类等。不过,具体的实现方式还会因不同的应用和技术而有所差异。
2025-03-05
我能用AI实现手机自动记账吗
目前利用 AI 技术实现手机自动记账是可行的。通过使用具备自然语言处理和机器学习能力的 AI 应用,能够对您的消费信息进行智能识别和分类记录。例如,某些记账应用可以自动解析短信中的消费通知,或者通过语音输入您的消费描述来完成记账。但要实现较好的效果,可能需要您对相关应用进行一定的设置和训练,以适应您的消费习惯和记账需求。
2025-03-05
想在手机上通过宠物照片给宠物建模,是宠物可以有一些动态性,需要怎么做?利用 AIGC 能快速的实现吗?
在手机上通过宠物照片给宠物建模并实现一定的动态性,可以考虑以下几种方式: 1. 利用 3D 引擎:目前有一些公司提供通过手机摄像头快速创建虚拟人身体的服务,例如 NextHuman。不过,3D 引擎在拟真程度高的同时,定制化成本也较高。 2. 借助 AIGC:虽然 AIGC 省去了建模流程,能直接生成数字人的展示图片,但可能存在数字人难以保持 ID 一致性、帧与帧连贯性不佳等问题。典型的相关项目有 wav2lip等。但需要注意的是,如果对模型真实度要求较高,AIGC 方式可能不太理想,因为算法发展很快,未来可能会有更好的连贯度生成方式。 目前利用 AIGC 来快速实现可能存在一些挑战,但随着技术的发展,未来有可能更便捷高效地达成您的需求。
2025-02-13
手机微信怎么接入DeepSeek
目前微信尚未直接接入 DeepSeek。但学而思已表示将接入 DeepSeek“深度思考模式”,预计在 2 月内陆续于相关机型上线;钉钉已经全面接入 DeepSeek 系列模型;扣子现已支持满血版 Deepseek 全家桶,R1 模型现支持所有用户免费体验,每个用户每日限 20 条对话。 如果您想使用 DeepSeek,可按以下步骤操作: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 Deepseek。 3. 认真阅读开场白之后,正式开始对话。 关于 DeepSeek 提示词的设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不稳定)。 完整提示词版本为 v 1.3,特别鸣谢李继刚的【思考的七把武器】在前期为其提供了很多思考方向,以及 Thinking Claude(这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源)和 Claude 3.5 Sonnet(最得力的助手)。 如有任何问题请联系后台,电子邮箱:alolg@163.com
2025-02-12