美文网首页
线性回归与分类

线性回归与分类

作者: zealscott | 来源:发表于2019-03-20 18:33 被阅读0次

回顾线性回归,logistic回归和softmax。

LMS

  • 先构造线性函数进行拟合:h(x) = \theta_0 + \theta_1 x_1 + \theta_2 x_2
  • 定义cost function:J(\theta) = \frac{1}{2} \sum (h(x^{i}) - y^i)^2​
  • 因此,可使用梯度下降进行求解
    • gradient descent algorithm:\theta_i := \theta_j - \alpha\frac{\partial} {\partial \theta_j} J(\theta)
    • LMS update rule(Widrow-Hoff learning rule): \theta_j := \theta_j +\alpha (y^i - h(x^i))x_j^i
    • Bath gradient descent
      • This method looks at every example in the entire training set on every step
    • stochastic gradient descent (also incremental gradient descent)
      • Repeatedly run through the training set, and each time we encounter a training example, we update the parameters according to the gradient of the error with respect to that single training example only
  • Matrix derivatives
    • \theta = (X^TX)^{-1} X^T y
  • Probabilistic interpretation
    • assume \epsilon \sim N(0,\sigma^2), y^i = \theta^T x^i +\epsilon^i
    • 可通过likelihood的方式得到最优解其实就是最小化least square cost
      • \min \frac{1}{2}\sum (y^i - \theta^T x^i)^2
      • 注意,这里对\theta的假设中,与正态分布中的方差大小无关。
  • Locally weighted linear regression
    • 这是一种非参数模型
      • 在普通的线性拟合中,我们的参数是固定的
      • 而在locally weighted线性模型中,参数是随着训练集合进行增长的(Loess),可以不让我们担心如何来确定feature(在局部进行线性回归)
    • \min \sum w^i(y^i - \theta^T x^i)^2
    • w^i = \exp(-\frac{(x^i - x)^2}{2\tau ^2})
      • 离该样本越近,则权重越大(趋近1),可以看成在局部进行线性回归(局部权重基本不变)
    • 与KNN的关系?

logistic regression

  • sigmoid function: g(z) = \frac{1}{1+e^{-z}}
    • g'(z) = g(z)(1-g(z))​
  • 同样可以用likelihood得到
    • l(\theta) = \sum y^i \log h(x^i) + (1-y^i)\log (1-h(x^i))
  • using gradient ascent
    • \theta _j := \theta_j + \alpha(y^i - h(x^i)) x_j^i
  • 同时,我们还可以用Newton法来找最小值
    • 我们想要找极大值点,也就是一阶导数为0,因此: \theta: \theta - \frac{l^{'}(\theta)}{l^{''}(\theta)}
    • 写成矩阵的形式:\theta := \theta - H^{-1}\bigtriangledown l(\theta),其中Hessian矩阵为 H_{ij} = \frac{\partial l^2(\theta)}{\partial \theta_i \partial \theta_j}
    • 在数据量较小时比gradient ascent收敛快,但计算Hessian困难

Generalized Linear Model

  • 首先介绍exponential family:
    • p(y,\eta) = b(y) \exp (\eta^TT(y) - a(\eta))
  • 很容易可以证明,无论是分类问题(multinomial)还是回归问题(正态分布),都可以转换为指数族的形式
  • 通过指数族的形式,我们可以发现,在线性假设下,我们之前的logistic回归的sigmoid方程其实就是给定x下y的Bernoulli分布。
  • 因此,为什么我们之前要选择sigmoid函数呢?
    • 因为其广义线性模型的指数族形式的充分统计量的canonical形式就是sigmoid函数。
  • softmax function
    • 可通过multinomial的指数族形式可以得到:\phi_i = \frac{e^\eta_i}{\sum e^\eta_j}
    • 可以认为是logistic regression的推广

相关文章

  • 机器学习

    监督学习: 分类与回归 线性回归: 线性模型:最小二乘法,岭回归,lasso回归 解决线性问题...

  • 【机器学习实践】有监督学习:线性分类、回归模型

    线性模型 为线性模型 分类和回归的区别 分类:离散回归:连续本文主要关注线性回归模型 常用线性回归模型类型 OLS...

  • 初级算法梳理(二)任务2打卡

    逻辑回归与线性回归都属于广义线性回归模型,其区别与联系从以下几个方面比较: 分类与回归:回归模型就是预测一个连续变...

  • 机器学习day7-逻辑回归问题

    逻辑回归 逻辑回归,是最常见最基础的模型。 逻辑回归与线性回归 逻辑回归处理的是分类问题,线性回归处理回归问题。两...

  • 机器学习实战Py3.x填坑记8—预测数值型数据:回归

    本章内容:线性回归局部加权线性回归岭回归和逐步线性回归预测鲍鱼年龄和玩具售价 回归与分类一样,都是预测目标值的过程...

  • 基于sklearn的线性回归器

    理论 线性回归器 相比于线性分类器,线性回归器更加自然。回归任务的label是连续的变量(不像分类任务label是...

  • 线性回归与分类

    回顾线性回归,logistic回归和softmax。 LMS 先构造线性函数进行拟合: 定义cost functi...

  • Logistic模型的基本概念

    1.线性回归发展而来: 线性回归研究的是连续因变量与自变量之间的关系 但有些问题是分类因变量,研究分类因变量与一组...

  • 逻辑回归(鸢尾花案例)

    一、什么是逻辑回归? 逻辑回归是机器学习中的一个基础的算法,他与线性回归类似,与线性回归不同的是它预测的分类问题。...

  • 逻辑回归

    逻辑回归是一个分类算法,利用回归来做分类.它可以处理二元分类以及多元分类,逻辑回归与线性回归不同主要体现在以下两点...

网友评论

      本文标题:线性回归与分类

      本文链接:https://www.haomeiwen.com/subject/fjitvqtx.html