因为在神经网络中,被正确分类的图像数量所关于权重和偏置的函数并不是一个平滑的函数。对权重和偏置做出的微小变动完全不会影响被正确分类的图像的数量。这会导致我们很难去解决如何改变权重和偏置来取得改进的性能。
均方误差的平滑代价函数则能更好地去解决如何根据权重和偏置中的微分的改变来取得更好的效果。
均方误差可以很好的利用,但是也有其他的代价函数可以使用。
因为在神经网络中,被正确分类的图像数量所关于权重和偏置的函数并不是一个平滑的函数。对权重和偏置做出的微小变动完全不会影响被正确分类的图像的数量。这会导致我们很难去解决如何改变权重和偏置来取得改进的性能。
均方误差的平滑代价函数则能更好地去解决如何根据权重和偏置中的微分的改变来取得更好的效果。
均方误差可以很好的利用,但是也有其他的代价函数可以使用。
本文标题:3. 代价函数为什么选择均方误差,而不用“正确分类的图片的数量”
本文链接:https://www.haomeiwen.com/subject/hghomqtx.html
网友评论