美文网首页
逻辑回归模型

逻辑回归模型

作者: 0_oHuanyu | 来源:发表于2020-07-13 20:59 被阅读0次

(a) 逻辑回归的目标函数

假设我们有训练数据D=\{(\mathbf{x}_1,y_1),...,(\mathbf{x}_n,y_n)\}, 其中(\mathbf{x}_i,y_i)为每一个样本,而且\mathbf{x}_i是样本的特征并且\mathbf{x}_i\in \mathcal{R}^D, y_i代表样本数据的标签(label), 取值为0或者1. 在逻辑回归中,模型的参数为(\mathbf{w},b)。对于向量,我们一般用粗体来表达。 为了后续推导的方便,可以把b融入到参数w中。 这是参数w就变成 w=(w_0, w_1, .., w_D),也就是前面多出了一个项w_0, 可以看作是b,这时候每一个x_i也需要稍作改变可以写成 x_i = [1, x_i],前面加了一个1。稍做思考应该能看出为什么可以这么写。

目标函数(objective function), 也就是我们需要"最小化"的目标(也称之为损失函数或者loss function),不需要考虑正则。 把目标函数表示成最小化的形态,另外把\prod_{}^{}转换成\log \sum_{}^{}

L(w)=-(∑y_i log( h)+∑(1-y_i)log(1-h))

其中:h =\frac{1}{1 + e^{- x_i · w}}
为什么前面有负号?因为极大似然是求似然函数的最大值,我们要加负号和log外壳,转化成求最小值问题。

(b) 求解对w的一阶导数

为了做梯度下降法,我们需要对参数w求导,L(w)w的梯度:
\frac{\partial L(w)}{\partial w} = \frac{\partial L(w)}{\partial h} · \frac{\partial h}{\partial w}
= -∑(\frac{y_i}{h} · \frac{\partial h}{\partial w} + \frac{y_i-1 }{1- h} · \frac{\partial h}{\partial w})
= -∑(\frac{\partial h}{\partial w} · (\frac{y_i}{h} · + \frac{y_i-1}{1- h} ))
因为 sigmoid函数 h 求导 \frac{\partial h}{\partial w} = x_i · h·(1-h),所以上式可转化为:
= -∑(x_i·h(1-h)·(\frac{y_i}{h} + \frac{y_i-1 }{1- h} ) )
= -∑(x_i·((1-h)·y_i + h(y_i-1))))
=∑ (x_i·(h- y_i ) )

对于一阶导数而言,这里的w可以指w向量中的某一个元素w_j, 对某个元素w_j求偏导时,其他的x_k (j!=k) 都在求导的过程中化简掉了。也就是写成如下形式:
\frac{\partial L(w_j)}{\partial w_j}=∑ (x_{i,j}· (\frac{1}{1 + e^{- x_i · w}}- y_i ) )
其中,x_{i,j}表示第i个样本的第j个特征值

(c) 求解对w的二阶导数

在上面结果的基础上对w求解二阶导数,也就是再求一次导数。
\frac{\partial^2 L(w)}{\partial^2 w} = ∑ x_i^2 ·h·(1-h)

这里,对于某个参数的二阶导数而言,L对 w_j 导数再对 w_k 求导的话,在hessian矩阵中的位置为第i行j列,可以记为 hessian_{i,j}
那么,可以表示为
hessian_{i,j} = ∑x_{i,j} * x_{i,k} ·h·(1-h)

(d) 证明逻辑回归目标函数是凸函数

这个证明见另一篇博客:逻辑回归目标函数凹凸性的证明

相关文章

  • 逻辑斯谛回归与最大熵模型

    逻辑斯谛回归与最大熵模型 逻辑斯谛回归模型 最大熵模型 最大熵模型的学习 逻辑斯谛回归(logistic regr...

  • 逻辑回归为什么用交叉熵损失函数

    1 Logistic Regression(逻辑回归) 逻辑回归是机器学习中的一个非常常见的模型, 逻辑回归模型其...

  • SKlearn_逻辑回归小练习

    逻辑回归 逻辑回归(Logistic regression 或logit regression),即逻辑模型(英语...

  • Logistic Regression

    Logistic Regression原理 逻辑回归模型本质上属于对数线性模型 下面对逻辑回归模型的原理进行介绍,...

  • 逻辑斯谛回归与最大熵模型

    逻辑斯谛回归与最大熵模型 首先介绍逻辑斯谛分布: 二项逻辑斯谛回归模型: 最大熵模型: 最大熵原理是概率模型...

  • 机器学习day7-逻辑回归问题

    逻辑回归 逻辑回归,是最常见最基础的模型。 逻辑回归与线性回归 逻辑回归处理的是分类问题,线性回归处理回归问题。两...

  • ML03-逻辑回归(下部分)

    本文主题-逻辑回归(下部分):逻辑回归的应用背景逻辑回归的数学基础逻辑回归的模型与推导逻辑回归算法推导梯度下降算法...

  • ML02-逻辑回归(上部分)

    本文主题-逻辑回归(上部分):逻辑回归的应用背景逻辑回归的数学基础逻辑回归的模型与推导逻辑回归算法推导梯度下降算法...

  • 吴恩达第二次作业代码

    输出 逻辑回归模型的梯度下降 输出 正则化逻辑回归 输出

  • 逻辑斯谛回归&最大熵模型

    1、逻辑斯谛回归模型 逻辑斯谛回归是经典的分类方法。二项逻辑斯谛回归模型是如下条件概率分布: 下面我们考察逻辑斯谛...

网友评论

      本文标题:逻辑回归模型

      本文链接:https://www.haomeiwen.com/subject/dwbzcktx.html