DeepFaceLab小白入门(5):训练换脸模型!

训练模型,是换脸过程中最重要的一部分,也是耗时最长的一部分。很多人会问到底需要多少时间?有人会告诉你看loss值到0.02以下就可以了。我会告诉你,不要看什么数值,看预览窗口的人脸。看第二列是否和第一列一样清晰,看最后一列是否清晰,如果答案是“是”,那么恭喜你可以进入下一个环节了。

 

这个环节主要包括6个文件,每个文件代表一种模型,你只需选择一种即可。目前用的比较多的是,H64,H128,SAE 

如果你玩这个软件,建议选着H64,出效果快,参数简单。

如果你需要更高的清晰度可选H128

如果你需要自定义更多参数选SAE。

 

6) train H64.bat

这个步骤虽然是最重要的,但是操作其实非常简单,比如你使用H64模型。只需双击文件。

 

双击文件文件之后一路回车,当跳出带头像的预览窗口就代表已经开始训练。刚开始训练的时候,第二列和第四列是空的,什么都没有,随着时间的推移会出现模糊的头像,继续训练头像会越来越清晰。

 

 6) train H128.bat

 

 

这是H128,点击后出现的预览图明显比H64要大很多,这也是他们唯一的区别。

6) train SAE.bat

 

这是SAE的效果图。默认SAE的头像是128×128,等同于H128。 但是SAE的参数会更多。

 

下面说说模型训练环节常见的几个概念

Batch_size

这是一个深度学习中最常见的数字,也是每个模型必备参数。这个值到底取多少没有标准,默认为4,你可以用的值为2的n次方,比如2,4,8,16,32,64,128。一个普遍的常识是,数字大的会比小的效果好,loss收敛更快,震荡区域更小,但是对于机器配置的要求也越高。主要是对显存需求变大,一般4G显存最高只能16,继续提高会报OOM错误。

 

Epoch

这又是一个深度学习概念,讲的是训练完所有素材消耗的时间,最新版本这个名词改成了iteration 。 这么一改可能会让人有点混乱,但是你无需过多关注。你可以简单的认为是训练的次数。这个数值越大训练次数越多,效果越好。 而[1046ms] 这个数字越低,代表你电脑的配置越好,训练模型需要的时间更短。

 

LOSS

这TM又是一个深度学习的概念,反正就是越低越好。但是不要看绝对值,要看趋势,这个值慢慢降低,对应的预览图会越来越清晰,当降到一定数值(不一定是0.02或者0.01)后就很难在降低。

 

History

 

在开始训练的时候Write preview history 输入Y之后,workspace\model\h64_history下面就会保存各个阶段的预览图。这个图很直观的展现了你这个模型的进化过程。

 

对于train这个训练环节,你只要看最直观的预览图即可,其他都是浮云,浮云,浮云。

训练结束之后!!!

我们就可以进入真正的换脸环节了:脸部替换以及合成视频!

 

 

AI换脸系列文章:

  1. DeepFaceLab软件简介
  2. DeepFaceLab软件安装
  3. DeepFaceLab软件使用
  4. DeepFaceLab人脸提取详解
  5. DeepFaceLab模型训练详解
  6. DeepFaceLab导出视频详解

更多内容请参考:DeepFakes中文网

公众号:托尼是塔克

posted @ 2019-03-30 11:24  托尼不是塔克  阅读(22340)  评论(0编辑  收藏  举报