关于RM中的深度学习算子(H2O)和扩展(DL4j)
你好,
我正在使用基于H2O的深度学习算子和基于DL4j的深度学习扩展。我正在寻找这些操作符是否可以在其中嵌入可适应的时代。这类似于需要训练的epoch的数量可以根据验证集的准确性(性能)自动确定。例如,如果验证集的准确性在增加,那么模型可以训练更多的epoch,直到它开始减少。就像在深度学习中一样,如果我们有更少的时间点,模型就会训练不足,如果有更多的时间点,就会出现过拟合的问题,为了选择最优的时间点数量,我们在当前的算子或扩展中有任何选择吗?
还有一个问题是,我在深度学习算子(H2O)中看到,如果我有两层,为什么需要为两层指定dropout ?是否不能为单个层指定漏出率?根据Hinton的dropout论文,我看到建议是为每个完全连接的层添加,但这是强制性的吗?
谢谢
Varun
我正在使用基于H2O的深度学习算子和基于DL4j的深度学习扩展。我正在寻找这些操作符是否可以在其中嵌入可适应的时代。这类似于需要训练的epoch的数量可以根据验证集的准确性(性能)自动确定。例如,如果验证集的准确性在增加,那么模型可以训练更多的epoch,直到它开始减少。就像在深度学习中一样,如果我们有更少的时间点,模型就会训练不足,如果有更多的时间点,就会出现过拟合的问题,为了选择最优的时间点数量,我们在当前的算子或扩展中有任何选择吗?
还有一个问题是,我在深度学习算子(H2O)中看到,如果我有两层,为什么需要为两层指定dropout ?是否不能为单个层指定漏出率?根据Hinton的dropout论文,我看到建议是为每个完全连接的层添加,但这是强制性的吗?
谢谢
Varun
0
答案
2-如果你有2个隐藏层,你可以设置退出比率为0.35,0.50。这意味着第一个隐藏层为0.35 drop out,第二层为0.5 drop out。但是你必须为每一层指定一个比例