美文网首页
Machine Learning 基础:损失函数(Loss Fu

Machine Learning 基础:损失函数(Loss Fu

作者: 肥了个大西瓜 | 来源:发表于2018-11-06 20:45 被阅读0次



      损失函数是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数的重要组成部分。模型的结构风险函数包括了经验风险和正则项。通常可以表示成下式:

    image

      其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的Φ是正则化项(regularizer)或者叫惩罚项(penalty term),它可以是L1,也可以是L2,或者其他的正则函数。整个式子表示的意思是找到使目标函数最小时的θθ值。下面主要列出几种常见的损失函数。

    1 log对数损失函数

      在逻辑回归的推导中,它假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数,接着取对数求极值等等。而逻辑回归并没有求似然函数的极值,而是把极大化当作是一种思想,进而推导出它的经验风险函数为:最小化负的似然函数(即max F(y, f(x)) —-> min -F(y, f(x))),从损失函数的视角来看,它就成了log损失函数了。

    1.1 log损失函数的标准形式

      L(Y,P(Y|X))=-logP(Y|X)

      取对数是为了方便计算极大似然估计,因为在MLE中,直接求导比较困难,所以通常都是先取对数再求导找极值点。损失函数L(Y,P(Y|X))表达的是样本X在分类Y的情况下,使概率P(Y|X)达到最大值,(换言之,就是利用已知的样本分布,找到最有可能(即最大概率)导致这种分布的参数值,或者说什么样的参数才能使我们观测到目前这组数据的概率最大)。因为log函数是单调递增的,所以logP(Y|X)也会达到最大值,因此在前面加上负号之后,最大化P(Y|X)就等于最小化L了。

      逻辑回归(Logistic Regresssion)的P(Y=y|x)的表达式如下(为了将类别标签y统一为1和0,下面将表达式分开表示):

    image

      将它带入上式,可以通过推导得到logistic的损失函数表达式,如下:

    image

      逻辑回归最后得到的目标式子如下:

    image

      上面是针对二分类而言的。

    2 平方损失函数(最小二乘,Ordinary Least Squares)

      最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题。在线性回归中,它的假设样本和噪声都服从高斯分布(根据中心极限定理),再通过最小二乘的原则得出最小二乘的式子。最小二乘的原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小。换言之,OLS是基于距离的,而这个距离就是我们用的最多的欧几里得距离,选择欧式距离作为误差度量的原因如下:

    • 简单,计算方便;

    • 欧氏距离是一种很好的相似性度量标准;

    • 在不同的表示域变换后特征性质不变。

      平方损失(Square Loss)的标准形式如下:

    image

      当样本个数为n时,此时的损失函数为:

    image

      Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:

    image

      上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数α的线性函数。在机器学习中,通常指的都是后一种情况。

    3 指数损失函数(Adaboost)

      学过Adaboost算法的人都知道,它是前向分步加法算法的特例,是一个加和模型,损失函数就是指数函数。在Adaboost中,经过m此迭代之后,可以得到fm(x):

      Adaboost每次迭代时的目的是为了找到最小化下列式子时的参数α和G:

      指数损失函数(exp-loss)的标准形式如下:

      可以看出,Adaboost的目标式子就是指数损失,在给定n个样本的情况下,Adaboost的损失函数为:

      关于Adaboost的推导,可以参考Wikipedia:AdaBoost或者《统计学习方法》P145.

    4 Hinge损失函数(SVM)

      在机器学习算法中,hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于下列式子:

    image

      下面来对式子做个变形,令:

    image

      于是,原式就变成了:

    image

      如若取λ=1/2C,式子就可以表示成:

    image

      可以看出,该式子与下式非常相似:

    image

      前半部分中的ll就是hinge损失函数,而后面相当于L2正则项。

      Hinge 损失函数的标准形式

    image

      可以看出,当|y|>=1时,L(y)=0。

    5 其他损失函数

      除了以上这几种损失函数,常用的还有:

      0-1损失函数

    image

      绝对值损失函数

    [图片上传失败...(image-8f42cd-1541508318303)]

      下面来看看几种损失函数的可视化图像,对着图看看横坐标,看看纵坐标,再看看每条线都表示什么损失函数,多看几次好好消化消化。

    image







    参考:

    《机器学习-损失函数》

    相关文章

      网友评论

          本文标题:Machine Learning 基础:损失函数(Loss Fu

          本文链接:https://www.haomeiwen.com/subject/wedpxqtx.html