美文网首页
LOSS函数总结

LOSS函数总结

作者: LuDon | 来源:发表于2019-04-04 10:44 被阅读0次

LOSS 函数

loss函数一般分为两个部分:误差项和正则化项。
J(w) = \sum L(f_i(w)) + \lambda R(w)
其中误差项一般有一下几种:

  • 0-1损失
  • Hinge(SVM)
  • Log (逻辑回归,交叉熵)
  • Square loss (线性回归)
  • exponential loss (boosting)

1、0-1损失

记录错误分类的次数。
L(f)=\begin{cases} 0 ,\quad f >= 0 \\\\ 1,\quad f < 0 \end{cases}

2、hinge loss

常用语最大间隔分类。
L(f) = max(0, 1-t.f)
f为原始的输出,而不是预测的类别标签。t为期望的类别标签。

def hinge(pred_label, actual_label):
       if 1-pred_label*actual_label > 0:
               return 1-pred_label*actual_label
       return 0

3、Log loss

P(y=1|x,\theta) = h_{\theta}(x), P(y=0|x,\theta) = 1 - h_{\theta}(x), 则P(y|x,\theta) = h_{\theta}(x)^y(1 - h_{\theta}(x))^{1-y},loss函数定义为:
L(\theta) = P(y|X,\theta) = \Pi^m_{i=1}P(y^{(i)}|x^{(i)}, \theta)
= \Pi^m_{i=1}h_{\theta}(x^{(i)})^{y^{(i)}}(1 - h_{\theta}(x^{(i)}))^{1-y^{(i)}}
极大化最大似然函数:
l(\theta) = max log(L(\theta))
= max \sum {y^{(i)}}log h_{\theta}(x^{(i)})+ 1-y^{(i)}log(1 - h_{\theta}(x^{(i)}))
= min - \sum {y^{(i)}}log h_{\theta}(x^{(i)})+ 1-y^{(i)}log(1 - h_{\theta}(x^{(i)}))
这也是最小化交叉熵。
熵表示信息的不确定性,熵越大,表示信息的不确定性程度越大。熵的定义:
H(X) = - \sum p(x)logp(x)

def cross_entropy(pred_label, actual_label):
    res = 0
    for i in range(len(pred_label)):
        res += actual_label[i] logpred_label + (1-actual_label[i] log(1-pred_label[i]))
    return -res

4、square loss

预测值与实际值差值的平方和:
L_2(m) = (f_w(x) - y)^2
均方差(L2)是度量预测值与实际值差的平方的均值。只考虑到误差的大小,而没有考虑到方向。

def rmse(pred_label, actual_label):
      e = pred_label-actual_label
      e_s = d**2
      mse = e_s.mean()
      rmse = np.sqrt(mse)
      return rmse

L_1(M) = |(f_w(x) - y)|
平均绝对误差(L1)是度量预测值与实际值之间绝对差之和的平均值。对异常鲁邦。

def rmse(pred_label, actual_label):
      e = pred_label-actual_label
      e_a = np.absolute(d)
      mae = e_s.mean()
      return mae

5、exponential loss

指数误差一般用在boosting中。
J(w) = \lambda R(w) + \sum exp(-yf_w(x))

相关文章

  • 【ML】理论篇

    各大损失函数总结: pytorch loss function 总结

  • LOSS函数总结

    LOSS 函数 loss函数一般分为两个部分:误差项和正则化项。其中误差项一般有一下几种: 0-1损失 Hinge...

  • loss函数总结

    1. MAE平均绝对误差[https://www.jianshu.com/p/9774f010c944] 2. M...

  • 逻辑回归

    逻辑回归: 公式 loss函数 非凸函数,容易造成局部最优 Minimizing the loss corresp...

  • [ML] Loss_Function

    1. Loss Function(损失函数) 损失函数可以看做误差部分(loss term)+正则化部分(regu...

  • TensorFlow从头迈步W4.1如何搭配激活函数和loss代

    看loss代价函数求导=f(激活函数求导),确定loss函数变化速度与激活函数的变化速度什么正反比关系,能否满足激...

  • tf.nn.sigmoid_cross_entropy_with

    tf.nn.sigmoid_cross_entropy_with_logits使用这个loss函数,出现loss出...

  • Center Loss

    损失函数改进之Center Loss

  • Tensorflow & Keras的loss函数总结

    一、二分类与多分类交叉熵损失函数的理解 交叉熵是分类任务中的常用损失函数,在不同的分类任务情况下,交叉熵形式上有很...

  • loss函数之triplet loss

    不同于交叉熵损失仅仅考虑样本与类别标签之间误差,triplet loss关注样本与其他样本之间距离。来自论文Lea...

网友评论

      本文标题:LOSS函数总结

      本文链接:https://www.haomeiwen.com/subject/mizzbqtx.html