hyperparameter

神经网络入门篇:详解参数VS超参数(Parameters vs Hyperparameters)

参数 VS 超参数 什么是超参数? 比如算法中的learning rate \(a\)(学习率)、iterations(梯度下降法循环的数量)、\(L\)(隐藏层数目)、\({{n}^{[l]}}\)(隐藏层单元数目)、choice of activation function(激活函数的选择)都需 ......

课程二第三周:Hyperparameter tuning, Batch Normalization and Programming Frameworks

Hyperparameter tuning Tuning process 到目前为止,接触到的超参数有: 学习效率learning-rate:\(\alpha\) Momentum算法的参数:\(\beta\) 加权平均的参数 Adam算法的参数:\(\beta_1、\beta_2、\epsilon ......
共2篇  :1/1页 首页上一页1下一页尾页