DeepLearning.ai深度学习课程笔记
Search...
Ctrl + K
第二门课 改善深层神经网络:超参数调试、 正 则 化 以 及 优 化 (Improving Deep Neural Networks:Hyperparameter tuning, Regulariza
第二门课 改善深层神经网络:超参数调试、正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and
第二周:优化算法 (Optimization algorithms)
Previous
testCases.py
Next
2.1 Mini-batch 梯度下降(Mini-batch gradient descent)
Last updated
5 years ago
2.1 Mini-batch 梯度下降(Mini-batch gradient descent)
2.2 理解 mini-batch 梯度下降法(Understanding mini-batch gradient descent)
2.3 指数加权平均数(Exponentially weighted averages)
2.4 理解指数加权平均数(Understanding exponentially weighted averages )
2.5 指 数 加 权 平 均 的 偏 差 修 正 ( Bias correction in exponentially weighted averages )
2.6 动量梯度下降法(Gradient descent with Momentum )
2.7 RMSprop( root mean square prop)
2.8 Adam 优化算法(Adam optimization algorithm)
2.9 学习率衰减(Learning rate decay)
2.10 局部最优的问题(The problem of local optima)
Optimization
opt_utils.py
testCases.py