关于RM中的深度学习算子(H2O)和扩展(DL4j)

varunm1varunm1 主持人,职位:1207年独角兽
2019年6月编辑 帮助
你好,

我正在使用基于H2O的深度学习算子和基于DL4j的深度学习扩展。我正在寻找这些操作符是否可以在其中嵌入可适应的时代。这类似于需要训练的epoch的数量可以根据验证集的准确性(性能)自动确定。例如,如果验证集的准确性在增加,那么模型可以训练更多的epoch,直到它开始减少。就像在深度学习中一样,如果我们有更少的时间点,模型就会训练不足,如果有更多的时间点,就会出现过拟合的问题,为了选择最优的时间点数量,我们在当前的算子或扩展中有任何选择吗?

还有一个问题是,我在深度学习算子(H2O)中看到,如果我有两层,为什么需要为两层指定dropout ?是否不能为单个层指定漏出率?根据Hinton的dropout论文,我看到建议是为每个完全连接的层添加,但这是强制性的吗?

谢谢
Varun
问候,
Varun
https://www.varunmandalapu.com/

是安全的。遵循预防措施并保持社交距离

答案

  • sgenzersgenzer 管理员,版主,员工,RapidMiner认证分析师,社区经理,成员,大学教授,PM版主职位:2959年社区经理
  • User36964User36964 委员、大学教授职位:15大学教授
    2019年4月编辑
    1-据我所知,没有特殊的操作符来优化参数,如epoch。但是您可以将优化参数运算符与日志运算符一起使用。

    2-如果你有2个隐藏层,你可以设置退出比率为0.35,0.50。这意味着第一个隐藏层为0.35 drop out,第二层为0.5 drop out。但是你必须为每一层指定一个比例
    varunm1
登录注册置评。