训练自己的模型可以参考以下几种方式:
[title]直接在Comfy UI中训练LoRA模型按Enter键,这将安装所有所需的依赖项,使其与ComfyUI兼容。请注意,如果你为Comfy使用了虚拟环境,必须首先激活它。教程在使用自定义节点之前,有一些要注意的事项:你的图像必须放在一个以[number]_[whatever]命名的文件夹中。那个数字很重要:LoRA脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如5。然后,下划线是必须的。其余部分不重要。对于data_path,你必须写入包含数据库文件夹的文件夹路径。因此,在这种情况下:C:\database\5_myimages你必须写C:\database至于终极问题:“斜杠还是反斜杠?”…不用担心!Python在这里需要斜杠,但节点会自动将所有反斜杠转换为斜杠。文件夹名称中的空格也不是问题。参数在第一行,你可以从checkpoint文件夹中选择任何模型。然而,据说你必须选择一个基本模型进行LoRA训练。这是为什么我不得而知。但你完全可以尝试使用微调,没有任何阻碍。但如果你想遵循规则,请确保在checkpoint文件夹中有一个基本模型!这就是你需要了解的全部!其余都很简单:你选择一个名字为你的LoRA,如果默认值对你不好,就更改这些值(epochs数应该接近40),然后启动工作流程!一旦你点击Queue Prompt,所有事情都会在命令提示符中发生。去看一下。即使你对LoRA训练是新手,你也会很快明白命令提示符显示了训练的进度。(或者…显示了错误x)。
[title]创作:基于百川大模型向微信群大佬们虚心学习[heading2]打造虚拟专家[heading3]训练模型选择Baichuan2-7B-Chat模型作为底模,配置模型本地路径,配置提示模板Train页面里,选择sft训练方式,加载定义好的数据集wechat和self_cognition。其中学习率和训练轮次非常重要,根据自己的数据集大小和收敛情况来设置,使用FlashAttention-2则可以减少显存需求,加速训练速度;显存小的朋友可以减少batch size和开启量化训练,内置的QLora训练方式非常好用。需要用到xformers的依赖具体命令参数如下:显存占用20G左右,耐心等待一段时间,请神模式开启...根据聊天记录规模大小,少则要几小时,多则几天,一个虚拟助手就能训练完成了。专不专业还有待大量标准问答验证,只是口气和习惯的模仿是有点意思的,若再加上[《克隆自己的声音——赛博分身必备技能》](http://mp.weixin.qq.com/s?__biz=MzI0MzA4NDkwMw==&mid=2247492147&idx=1&sn=efacb40a6c5610b6ed7368ba1d043f13&chksm=e970d93bde07502df2ff09ae3e700923ae285c21c7151282870d9e1db309da07ee5a49f609ed&scene=21#wechat_redirect)的效果,那几乎就传神了。不过这里还有很多细节工作需要完善:
[title]教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识-知乎[heading2]6.从0到1上手使用Stable Diffusion训练自己的AI绘画模型(全网最详细讲解)[heading3]6.4 Stable Diffusion微调(finetune)训练sample_sampler:设置训练中测试模型效果时使用的sampler,可以选择["ddim","pndm","lms","euler","euler_a","heun","dpm_2","dpm_2_a","dpmsolver","dpmsolver++","dpmsingle","k_lms","k_euler","k_euler_a","k_dpm_2","k_dpm_2_a"],默认是“ddim”。save_model_as:每次模型权重保存时的格式,可以选择["ckpt","safetensors","diffusers","diffusers_safetensors"],目前SD WebUI兼容"ckpt"和"safetensors"格式模型。(3)SD关键参数详解(4)SD模型训练完成训练参数配置后,我们就可以运行训练脚本进行SD模型的全参微调训练了。我们本次训练用的底模型选择了WeThinkIn_SD_二次元模型,大家可以关注Rocky的公众号WeThinkIn,后台回复“ SD_二次元模型”获取模型资源链接。我们打开SD_finetune.sh脚本,可以看到以下的代码:我们把训练脚本封装在accelerate库里,这样就能启动我们一开始配置的训练环境了。在本文的6.2节中,我们已经详细介绍了如何配置accelerate训练环境,如果我们想要切换不同的训练环境参数,我们只需要将accelerate_config.yaml改成我们所需要的配置文件与路径即可(比如:/本地路径/new_accelrate_config.yaml)。