(a) 逻辑回归的目标函数
假设我们有训练数据, 其中
为每一个样本,而且
是样本的特征并且
,
代表样本数据的标签(label), 取值为
或者
. 在逻辑回归中,模型的参数为
。对于向量,我们一般用粗体来表达。 为了后续推导的方便,可以把b融入到参数w中。 这是参数
就变成
,也就是前面多出了一个项
, 可以看作是b,这时候每一个
也需要稍作改变可以写成
,前面加了一个1。稍做思考应该能看出为什么可以这么写。
目标函数(objective function), 也就是我们需要"最小化"的目标(也称之为损失函数或者loss function),不需要考虑正则。 把目标函数表示成最小化的形态,另外把转换成
其中:
为什么前面有负号?因为极大似然是求似然函数的最大值,我们要加负号和log外壳,转化成求最小值问题。
(b) 求解对w的一阶导数
为了做梯度下降法,我们需要对参数求导,
对
的梯度:
因为 sigmoid函数 求导
,所以上式可转化为:
对于一阶导数而言,这里的w可以指w向量中的某一个元素, 对某个元素
求偏导时,其他的
(j!=k) 都在求导的过程中化简掉了。也就是写成如下形式:
其中,表示第i个样本的第j个特征值
(c) 求解对w的二阶导数
在上面结果的基础上对求解二阶导数,也就是再求一次导数。
这里,对于某个参数的二阶导数而言,
那么,可以表示为
(d) 证明逻辑回归目标函数是凸函数
这个证明见另一篇博客:逻辑回归目标函数凹凸性的证明
网友评论