DeepLearning.ai深度学习课程笔记
Search...
Ctrl
K
第二门课 改善深层神经网络:超参数调试、 正 则 化 以 及 优 化 (Improving Deep Neural Networks:Hyperparameter tuning, Regulariza
第二门课 改善深层神经网络:超参数调试、正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and
第二周:优化算法 (Optimization algorithms)
2.2 理解 mini-batch 梯度下降法(Understanding mini-batch gradient descent)
Previous
2.1 Mini-batch 梯度下降(Mini-batch gradient descent)
Next
2.3 指数加权平均数(Exponentially weighted averages)
Last updated
5 years ago
Was this helpful?