1.9 可避免偏差(Avoidable bias)

猫分类器:

人类具有近乎完美的准确度,人类水平的错误是1%,如果学习算法达到8%的训练错误率和10%的开发错误率,算法在训练集上的表现和人类水平的表现有很大差距,说明算法对训练集的拟合并不好。从减少偏差和方差这个角度看,把重点放在减少偏差上。比如训练更大的神经网络,跑久一点梯度下降,试试能不能在训练集上做得更好

同样的训练错误率和开发错误率,假设人类水平错误实际上是7.5%,系统在训练集上的表现还好,只比人类的表现差一点。在第二个例子中,应专注减少学习算法的方差,可以试试正则化,让开发错误率更接近训练错误率

用人类水平的错误率估计或代替贝叶斯错误率或贝叶斯最优错误率,对于计算机视觉任务而言,这样替代相当合理,因为人类非常擅长计算机视觉任务,人类能做到的水平和贝叶斯错误率相差不远

左边的例子8%的训练错误率真的很高,可以把它降到1%,减少偏差的手段可能有效。右边的例子中,如果认为贝叶斯错误率是7.5%,这里使用人类水平错误率来替代贝叶斯错误率,就知道没有太多改善的空间了,不能继续减少训练错误率,训练误差和开发误差之间有更多的改进空间,可以将这个2%的差距缩小一点,使用减少方差的手段,比如正则化,或者收集更多的训练数据

贝叶斯错误率或者对贝叶斯错误率的估计和训练错误率之间的差值称为可避免偏差

理论上是不可能超过贝叶斯错误率的,除非过拟合

训练错误率和开发错误率之前的差值,说明算法在方差问题上还有多少改善空间

Last updated