美文网首页
哲哲的ML笔记(十七:神经网络中的代价函数)

哲哲的ML笔记(十七:神经网络中的代价函数)

作者: 沿哲 | 来源:发表于2021-04-04 10:41 被阅读0次

参数说明

神经网络的训练样本数目:m
输入:一组X, 展开为(x^1,y^1),(x^2,y^2), ……,(x^m,y^m)
输出:y
神经网络的层数:L
l层的激活单元数量:s_l,下图中s_1=3,s_2=5,s_4=s_L=4

将神经网络的分类定义为两种情况:二类分类和多类分类,对应输出y
二分类时,s_L=1, y=0/1
多分类(K)时,s_L=k, y_i=1表示分到第i

代价函数

逻辑回归中的代价函数
J(\theta)=-\frac{1}{m}\sum_{i=1}^m[y^{i}log(h_\theta(x^{i}))+(1-y^{i})log(1-h_\theta(x^{i})) ]+\frac{\lambda}{2m}\sum_{j=1}^n\theta^{2}_j
神经网络中的代价函数
J(\theta)=-\frac{1}{m}[\sum_{i=1}^m\sum_{k=1}^Ky^{i}_klog(h_\theta(x^{i}))_k+(1-y^{i}_k)log(1-h_\theta(x^{i}))_k ]+\frac{\lambda}{2m}\sum_{l=1}^{L-1}\sum_{i=1}^{s_l}\sum_{j=1}^{s_{l+1}}(\theta^{l}_{ji})^2
神经网络中的代价函数的正则化的那一项只是排除了每一层\theta_0后,每一层的\theta矩阵的和。最里层的j循环循环所有的行(由 s_{l+1} 层的激活单元数决定),循环i则循环所有的列,由该层(s_l层)的激活单元数所决定

相关文章

网友评论

      本文标题:哲哲的ML笔记(十七:神经网络中的代价函数)

      本文链接:https://www.haomeiwen.com/subject/xrokkltx.html