美文网首页
CNN Learning(2)-basic knowledge

CNN Learning(2)-basic knowledge

作者: 大头菜turtle | 来源:发表于2019-10-11 14:52 被阅读0次

    龟龟是最可爱的小猫咪

    关于正则化

    对于一个线性分类来说,训练目的是找出一个权重矩阵使得loss fuction接近于0,假设有这样一个权重矩阵W满足条件,那么倍增W可能仍然满足条件。

    这当然不是我们想要看到的,那么为了规避这种情况,可以给loss fuction加上正则惩罚项,如L2规范化(正则化)

    L2 正则化

    L2翻数的定义:


    zhihu

    或者可以写成

    gif (2).gif

    以SVM的henge loss为例,加上L2正则项之后的损失函数为:

    gif.gif

    损失函数由两部分组成,一部分是由数据决定的data loss, 另一部分是与数据无关的仅仅由权重本身所决定的正则损失项Regularization loss,乘以一个L2正则系数λ,通常由cross-valiadation决定

    展开就是:


    gif (1).gif

    L2惩罚在同等情况下更倾向于选择出更小更均匀(漫反射状)的权重,避免个别维度的权重过大,一定程度上可以改善过拟合

    相关文章

      网友评论

          本文标题:CNN Learning(2)-basic knowledge

          本文链接:https://www.haomeiwen.com/subject/lngtmctx.html