2.4 逻辑回归的梯度下降(Logistic Regression Gradient Descent)
对单个样本而言,逻辑回归Loss function表达式如下:
y^=a=σ(z) L(a,y)=−(ylog(a)+(1−y)log(1−a)) 计算该逻辑回归的反向传播过程:
da=∂a∂L=−ay+1−a1−y dz=∂z∂L=∂a∂L⋅∂z∂a=(−ay+1−a1−y)⋅a(1−a)=a−y dw1=∂w1∂L=∂z∂L⋅∂w1∂z=x1⋅dz=x1(a−y) dw2=∂w2∂L=∂z∂L⋅∂w2∂z=x2⋅dz=x2(a−y) db=∂b∂L=∂z∂L⋅∂b∂z=1⋅dz=a−y 则梯度下降算法可表示为:
w1:=w1−α dw1 w2:=w2−α dw2 b:=b−α db