第二周:优化算法 (Optimization algorithms)
2.1 Mini-batch 梯度下降(Mini-batch gradient descent)2.2 理解 mini-batch 梯度下降法(Understanding mini-batch gradient descent)2.3 指数加权平均数(Exponentially weighted averages)2.4 理解指数加权平均数(Understanding exponentially weighted averages )2.5 指 数 加 权 平 均 的 偏 差 修 正 ( Bias correction in exponentially weighted averages )2.6 动量梯度下降法(Gradient descent with Momentum )2.7 RMSprop( root mean square prop)2.8 Adam 优化算法(Adam optimization algorithm)2.9 学习率衰减(Learning rate decay)2.10 局部最优的问题(The problem of local optima)Optimizationopt_utils.pytestCases.py
Last updated