美文网首页
哲哲的ML笔记(十七:神经网络中的代价函数)

哲哲的ML笔记(十七:神经网络中的代价函数)

作者: 沿哲 | 来源:发表于2021-04-04 10:41 被阅读0次

    参数说明

    神经网络的训练样本数目:m
    输入:一组X, 展开为(x^1,y^1),(x^2,y^2), ……,(x^m,y^m)
    输出:y
    神经网络的层数:L
    l层的激活单元数量:s_l,下图中s_1=3,s_2=5,s_4=s_L=4

    将神经网络的分类定义为两种情况:二类分类和多类分类,对应输出y
    二分类时,s_L=1, y=0/1
    多分类(K)时,s_L=k, y_i=1表示分到第i

    代价函数

    逻辑回归中的代价函数
    J(\theta)=-\frac{1}{m}\sum_{i=1}^m[y^{i}log(h_\theta(x^{i}))+(1-y^{i})log(1-h_\theta(x^{i})) ]+\frac{\lambda}{2m}\sum_{j=1}^n\theta^{2}_j
    神经网络中的代价函数
    J(\theta)=-\frac{1}{m}[\sum_{i=1}^m\sum_{k=1}^Ky^{i}_klog(h_\theta(x^{i}))_k+(1-y^{i}_k)log(1-h_\theta(x^{i}))_k ]+\frac{\lambda}{2m}\sum_{l=1}^{L-1}\sum_{i=1}^{s_l}\sum_{j=1}^{s_{l+1}}(\theta^{l}_{ji})^2
    神经网络中的代价函数的正则化的那一项只是排除了每一层\theta_0后,每一层的\theta矩阵的和。最里层的j循环循环所有的行(由 s_{l+1} 层的激活单元数决定),循环i则循环所有的列,由该层(s_l层)的激活单元数所决定

    相关文章

      网友评论

          本文标题:哲哲的ML笔记(十七:神经网络中的代价函数)

          本文链接:https://www.haomeiwen.com/subject/xrokkltx.html