美文网首页
机器学习算法:LR多分类与softmax分类

机器学习算法:LR多分类与softmax分类

作者: 哎吆喂轩 | 来源:发表于2018-12-31 16:24 被阅读0次

LR实现多分类

LR是一种传统的二分类模型,也可以做多分类模型,其实现思路如下:

  • 将多分类模型拆分成多个二分类模型
  • 分别训练二分类模型
  • 将多个二分类模型进行集成,选取概率值最大的那个作为最终的分类结果
. logistic函数(sigmoid函数)

该函数常被用作神经网络的激活函数。

. LR的似然函数

需要选择合适的参数θ 使似然函数最大化

. LR 似然函数最大化,求出合适的参数θ

第一步: 对似然函数取对数

第二步: 利用梯度下降法来求参数 θ

第三步: 更新法则:

softmax 回归

. softmax函数的定义

softmax函数又称为归一化指数函数,是逻辑函数一种推广式,它能将一个含任意实数的K维向量z “压缩”到另一个K维实向量中,使得每一个元素都在(0,1)之间,所有元素的何为1。

. softmax函数表达式

softmax函数的表达式为:


其中,j = 1,2,...,K

. softmax函数的应用

Softmax函数实际上是有限项离散概率分布的梯度对数归一化。因此,Softmax函数在包括多项逻辑回归,多项线性判别分析、朴素贝叶斯分类器和人工神经网络等,多种基于概率的多分类问题方法中都有着广泛应用。

特别地,在多项逻辑回归和线性判别分析中,函数的输入是从K个不同的线性函数得到的结果,而样本向量x属于第j个分类的概率为:

. softmax的代价函数

类似于LR,其似然函数我们采用对数似然,故损失函数为:


加入L2正则项的代价函数:


. softmax的梯度求解

第一步: 对L2正则项求导

第二步: 对损失函数的梯度求解

  • 求解损失函数



    的梯度

  • 为了使得求解过程简便且易于理解,下面先只对于一个样本(x,y)求梯度:




  • 正则化之后的损失函数的梯度为:


通过梯度下降法最小化 J(θ),就能实现 softmax 回归模型。

LR 多分类与softmax的区别

  • 若待分类的类别互斥,则用Softmax方法
  • 若待分类的类别有相交,则用多分类LR,再通过投票表决

相关文章

  • 机器学习算法:LR多分类与softmax分类

    LR实现多分类 LR是一种传统的二分类模型,也可以做多分类模型,其实现思路如下: 将多分类模型拆分成多个二分类模型...

  • 常用机器学习算法

    常用机器学习算法 常用预测(分类,回归)模型: 分类算法:LR , SVM,KNN 矩阵分解:FunkSVD,Bi...

  • 算法模型

    LR ▐ 算法原理 逻辑回归LR(Logistic Regression)模型作为经典的机器学习分类模型,以其可...

  • 机器学习 - 逻辑回归

    LR简介 逻辑回归(Logistic Regression)是机器学习经典算法之一。虽然名为回归,但是其实一个分类...

  • 机器学习算法分类

    机器学习算法分类 监督学习(预测)分类:K-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络回归:线性回...

  • Softmax

    前言 在机器学习中的多元分类问题,我们时常使用softmax函数来整理输出结果。那么什么是softmax呢? 什么...

  • 机器学习 && 深度学习

    简单分类算法:Bayes LR SVM 决策树(C4.5 CART) 复合分类算法:Adaboost xg...

  • 分类回归算法的评价指标

    引言 最近在做一些机器学习算法的工作,主要是应用,基本的机器学习算法都既可以做分类,又可以回归,然后对分类与回归算...

  • softmax回归

    softmax是逻辑回归的泛化算法 因为逻辑回归只能做二分类或者多个二分类 但是softmax可以直接做多分类 对...

  • Python数据挖掘与机器学习,快速掌握聚类算法和关联分析

    摘要:前文数据挖掘与机器学习技术入门实战与大家分享了分类算法,在本文中将为大家介绍聚类算法和关联分析问题。分类算法...

网友评论

      本文标题:机器学习算法:LR多分类与softmax分类

      本文链接:https://www.haomeiwen.com/subject/logilqtx.html