美文网首页
逻辑回归

逻辑回归

作者: MaskStar | 来源:发表于2019-05-13 20:58 被阅读0次

逻辑回归是假设数据服从伯努利分布(二项分布),通过极大似然函数的方法,运用梯度下降来求解参数,达到数据的二分类的目的。
是经典的二分类算法,是处理因变量是分类变量的回归问题。

1.1 对数几率回归

线性模型是回归问题,如果要处理分类问题的话,该如何?
答案在广义线性模型中,只需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来,
二分类,其输出标记为 y={0或1},而线性回归产生的预测值z = w^Tx+b,我们只需将实值z转换为0,1值就可以了。最理想的是“单位阶跃函数”,即:

单位阶跃函数
单位阶跃函数对数几率函数如下所示:
单位阶跃函数和对数几率函数
预测值大于0,则判定为正例;小于0,则判定为负例;为0,则可以任意定义。
由于单位阶跃函数不连续所以不能直接定义为线性回归的函数。所以我们希望找到能在一定程度上近似单位阶跃函数的“替代函数”,并且单调可微,所以就找到了对数几率函数
对数几率函数
对数几率函数是一种“Sigmoid函数”,将其代入线性回归有:

将上式变换得:

将视为作为正例的相对可能性,则是其反例的可能性,两者的比值称为“几率”,反映了作为正例的相对可能性,对几率取对数则得到“对数几率”。
1.2极大似然求解

如何求解wb呢?我们可以将y视为后验概率估计p(y=1|x)
则上式变换为 ln(\frac{p(y=1|x)}{p(y=0|x)}=w^Tx+b)
得:
p(y=1|x)=\frac{e^{w^Tx+b}}{1+e^{w^Tx+b}}
p(y=0|x)=\frac{1}{1+e^{w^Tx+b}}
于是可以通过极大似然法来估计wb

令:
最大似然函数

则目标函数可写为:


对数几率回归的目标函数
对目标函数求解得到最优参数。

相关文章

  • 机器学习day7-逻辑回归问题

    逻辑回归 逻辑回归,是最常见最基础的模型。 逻辑回归与线性回归 逻辑回归处理的是分类问题,线性回归处理回归问题。两...

  • ML03-逻辑回归(下部分)

    本文主题-逻辑回归(下部分):逻辑回归的应用背景逻辑回归的数学基础逻辑回归的模型与推导逻辑回归算法推导梯度下降算法...

  • ML02-逻辑回归(上部分)

    本文主题-逻辑回归(上部分):逻辑回归的应用背景逻辑回归的数学基础逻辑回归的模型与推导逻辑回归算法推导梯度下降算法...

  • 逻辑回归模型

    1.逻辑回归介绍2.机器学习中的逻辑回归3.逻辑回归面试总结4.逻辑回归算法原理推导5.逻辑回归(logistic...

  • Task 01|基于逻辑回归的分类预测

    知识背景 关于逻辑回归的几个问题 逻辑回归相比线性回归,有何异同? 逻辑回归和线性回归最大的不同点是逻辑回归解决的...

  • 11. 分类算法-逻辑回归

    逻辑回归 逻辑回归是解决二分类问题的利器 逻辑回归公式 sklearn逻辑回归的API sklearn.linea...

  • 机器学习100天-Day4-6逻辑回归

    逻辑回归(Logistic Regression) 什么是逻辑回归 逻辑回归被用于对不同问题进行分类。在这里,逻辑...

  • SKlearn_逻辑回归小练习

    逻辑回归 逻辑回归(Logistic regression 或logit regression),即逻辑模型(英语...

  • R glm

    R 逻辑回归 R 怎么做逻辑回归

  • 逻辑斯蒂回归在二分类中的应用

    逻辑回归简介 逻辑斯蒂回归(logistic regression,又称“对数几率回归”)是经典的分类方法。逻辑斯...

网友评论

      本文标题:逻辑回归

      本文链接:https://www.haomeiwen.com/subject/wvdfaqtx.html