逻辑回归算法

作者: python机器学习学习笔记 | 来源:发表于2019-01-22 11:26 被阅读51次

    逻辑回归原理推导

    目的:分类还是回归?

    (经典的二分类算法)

    什么是回归:比如说我们有两类数据,各有50个点组成,当我门把这些点画出来,会有一条线区分这两组数据,我们拟合出这个曲线(因为很有可能是非线性),就是回归。我们通过大量的数据找出这条线,并拟合出这条线的表达式,再有新数据,我们就以这条线为区分来实现分类。

    机器学习算法选择:先逻辑回归再用复杂的,能简单还是用简单的

    逻辑回归的决策边界:可以是非线性的

    学习过程:

    下图是一个数据集的两组数据,中间有一条区分两组数据的线。

    显然,只有这种线性可分的数据分布才适合用线性回归

    逻辑回归的模型 是一个非线性模型,sigmoid函数,又称逻辑回归函数。但是它本质上又是一个线性回归模型,因为除去sigmoid映射函数关系,其他的步骤,算法都是线性回归的。可以说,逻辑回归,都是以线性回归为理论支持的。

    只不过,线性模型,无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题

    Sigmoid函数(逻辑回归函数)

    公式:

    自变量取值为任意实数,值域为[0,1]

    解释:将任意的输入映射到了[0,1]区间,我们在线性回归中可以得到一个预测值,再将该值映射到Sigmoid函数中,这样就完成了由值到概率的转换,也就是分类任务。

    预测函数:

    其中:

    分类任务:

    整合:

    解释:

    逻辑回归求解:

    似然函数:

    对数似然:

    此时应用梯度上升求最大值,

    求导过程:

    参数更新:

    多分类的softmax:

    总结:逻辑回归算是很好用的一种算法

    相关文章

      网友评论

        本文标题:逻辑回归算法

        本文链接:https://www.haomeiwen.com/subject/qalljqtx.html