为了账号安全,请及时绑定邮箱和手机立即绑定

全量微调FLUX效果远远好于LoRA训练,过拟合和细节问题大大减少

配置与完整实验设置

详情
  • 我还在严格测试不同的超参数,并比较每个超参数的影响,以找到最佳的工作流程
  • 到目前为止已完成16次完整的训练,现在正在完成另外8次训练
  • 我正在使用这个差但过拟合的15张图片的数据集进行实验(第四张图片)
  • 我已证明,使用更好的数据集时,效果会好很多,并能完美生成表情
  • 例如这种情况:https://www.reddit.com/r/FluxAI/comments/1ffz9uc/tried_expressions_with_flux_lora_training_with_my/
结论部分
  • 当分析结果时,微调后过拟合程度更低,泛化能力更佳,质量更佳
  • 在前两张图片中,它能够更出色地改变发色和添加胡须,这意味着它过拟合的程度更低
  • 在第三张图片中,你可以看出盔甲的质量更好,因此过拟合程度更低
  • 我注意到环境和服装的过拟合程度更小,质量更佳
这里要说说不足了啊
  • Kohya 仍然没有 FP8 训练,因此,24GB 的显卡速度会大幅下降
  • 另外,48GB 的显卡必须使用 Fused Back Pass 优化,速度会有一定下降
  • 16GB 的显卡由于没有 FP8 支持,速度下降会更严重
  • Clip-L 和 T5 的训练仍然不支持
供速参考
  • 第1级快速配置 — 使用 27.5 GB 显存,每轮时间 6.28 秒(LoRA 每轮时间 4.85 秒)
  • 第1级较慢配置 — 使用 23.1 GB 显存,每轮时间 14.12 秒(LoRA 每轮时间 4.85 秒)
  • 第1级最慢配置 — 使用 15.5 GB 显存,每轮时间 39 秒(LoRA 每轮时间 6.05 秒)
最后
  • 保存的检查点为FP16,因此大小为23.8GB(没有训练Clip-L或T5)
  • 根据Kohya的说法,应用的优化不会改变质量,因此所有配置目前都被评为第一
  • 我仍在测试这些优化是否会对质量有任何影响
  • 我仍在尝试寻找更好的超参数
  • 所有训练都在1024x1024分辨率下进行,因此降低分辨率可以提高速度,减少VRAM使用,但也会降低质量
  • 希望当FP8训练到来的时候,即使12GB的显存也能很好地进行精细调优,速度也会很快
点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消