本系列是台湾大学资讯工程系林軒田(Hsuan-Tien Lin)教授开设的《机器学习基石》课程的梳理。重在梳理,而非详细的笔记,因此可能会略去一些细节。
该课程共16讲,分为4个部分:
- 机器什么时候能够学习?(When Can Machines Learn?)
- 机器为什么能够学习?(Why Can Machines Learn?)
- 机器怎样学习?(How Can Machines Learn?)
- 机器怎样可以学得更好?(How Can Machines Learn Better?)
本文是第3部分,对应原课程中的9-12讲。
本部分的主要内容:
- 线性回归算法详解,以及泛化能力的保证、能否用于二分类问题等;
- 逻辑回归算法详解,并引入梯度下降方法;
- 阐述PLA、线性回归、逻辑回归3种方法在分类问题上的联系与区别,并引入随机梯度下降方法;
- 多分类问题中的OVA、OVO方法;
- 特征的非线性变换,以及该如何控制变换后的复杂度。
1 线性回归
在第一部分中讲过机器学习的分类,当时,就是回归。
1.1 线性回归算法
线性回归的假设集十分简单,,其实就是感知机模型去除了符号函数。
它的逐点误差度量可设为,那么样本内外的误差分别为
和
要最小化很简单,当它取到最小时必有梯度为
,因此可先计算出它的梯度:
令它为即可。如图所示:
![](https://img.haomeiwen.com/i5715116/958471007a7e4e6b.png)
若可逆(当
时基本上会满足),则可直接得出
如果是奇异的呢?可先定义“伪逆”(pseudo-inverse)
,在定义完后有
在实践中,建议直接使用,一方面可避免判断
是否可逆,另一方面就算在几乎不可逆的情况下,它也是在数值上稳定的。
1.2 线性回归的泛化
线性回归看起来没有“学习”过程,是一步到位的,那么它算机器学习吗?
事实上,只要可以保证足够小,那么就可以说“发生了”学习。
在这里,我们不从VC维理论出发,而从另一个角度说明为什么会足够小。
我们先来看平均的有多大:
其中
可将称为hat matrix,因为它可将
映射到
。由下图可知,若
由理想的
加上噪声
生成,那么
也可将
映射为
:
![](https://img.haomeiwen.com/i5715116/fbfd33cd0cdf9b66.png)
而,迹可以理解为“能量”,因此有
如果对取平均,大概可以理解为
类似地有
(证明过程略)。
因此和
的关系如图:
![](https://img.haomeiwen.com/i5715116/1af3df456d92c569.png)
若,则二者都收敛于
(
),泛化误差的期望为
。因此,学习是会“发生”的!
VC维理论说明的是和
相差较远的概率有上限,而这里说明的是它们的平均差距会收敛。角度不同,但两种方式都说明了泛化的能力。
1.3 用线性回归进行二分类
在线性分类中,,
,
,找它的最优解是个NP-hard问题。
由于,即样本的正负类别也能用实数表示,而在线性回归中
,那么,直接来一发线性回归,得到
,然后让
,这是否可行呢?
把线性分类和线性回归的误差度量分别记为和
,它们的关系如下图:
![](https://img.haomeiwen.com/i5715116/d785bfc80aa81e65.png)
从中可直观地看出,一定成立。由此,有
也就是说,让回归的做得足够好,也可以使得分类的
足够小,只不过上限更宽松一些而已。这样做就是用边界的紧度(bound tightness)换取计算效率(efficiency)。
一般可用来作为PLA或pocket算法的初始向量。
2 逻辑回归
2.1 逻辑回归算法
二分类中,我们感兴趣的是
但在很多场景下,我们想要做的是“软”(soft)分类,即得到某个分类的概率,此时感兴趣的是
问题在于,我们得到的数据标签是样本的类别,而非样本被分到某个类的概率。
对于一个样本的所有特征,令
。我们可用逻辑函数(logistic function)
将它转换成估计的概率。也就是说,逻辑回归(logistic regression)的假设为
。
最常用的逻辑函数是
函数图像如下:
![](https://img.haomeiwen.com/i5715116/caeb2ae8a2e1ad39.png)
可见,它是个光滑的、单调的、“S”形的(sigmoid)函数。
接下来,要定义逻辑回归的。先将目标函数
反表示为
假设手中的数据集为
那么,由生成
的概率为
由我们的假设生成
的似然(likelihood)为
如果,那么
生成
的似然也应该接近于由
生成
的概率,并且由
生成
的概率应该是较大的(正好被我们抽样抽到)。所以,机器学习算法可以取
若,由函数的性质可知,
,所以
而、
、……、
都与
无关,因此有
现在要将它最大化,以找出最终的。可先把
代入,再取对数(对数函数单调,不改变最大化取值的点),变为
再取相反数(最大化变为最小化)、除(不改变最值点)后,又可变为
将展开得到
令
这就是交叉熵误差(cross-entropy error),而就是
。
2.2 梯度下降
接下来就要最小化,它是连续的、可微的、二次可微的、凸的,因此可以试着让它梯度为
。求出它的梯度
它的梯度可以看成是以为权重的
的加权平均。要让它为0,有两种方式:
- 让所有的
都为0,这意味着所有样本都满足
,也即
是线性可分的;
- 若
不是线性可分的,要让加权和为0,这是个非线性方程,没有闭式解(closed-form solution)。
可用与PLA中类似的方法进行迭代,即,其中
确定了更新的方向,
确定了更新的步长,如图:
![](https://img.haomeiwen.com/i5715116/9e560b1ce26c90a7.png)
怎么迭代呢?可用贪心算法,一步步让变小。假设已经给定某个
,要确定
的方向,每一步的更新问题就转换成了
看起来仿佛更难解了。但如果足够小,我们可以用局部线性近似展开它(泰勒展开,Taylor expansion):
式中和
已知,
给定,只需确定
即可,注意到上式第二项本质上是两个向量内积,当两个向量方向相反时值最小,因此要最小化上式,可取
梯度下降的迭代更新就变成了:对于给定的较小,
太小会导致非常慢,太大会导致不稳定,最好用变化的
,如下图所示:
![](https://img.haomeiwen.com/i5715116/b470f56f7b0cc4c3.png)
那么,怎么变比较好?可让它与
正相关,将原来固定的
乘上
即可。这样,更新规则也就变成了
这个新的可叫作固定的学习率(learning rate)。
3 分类的线性模型
3.1 三种算法的比较
记,以下是总结三种模型(线性分类、线性回归、逻辑回归):
![](https://img.haomeiwen.com/i5715116/f8ddacb6eaa0e499.png)
![](https://img.haomeiwen.com/i5715116/e82052eb220f1570.png)
这里的可称为分类正确度分数(classification correctness score),即度量分类有多正确,该值越大,说明分类越“正确”。
若将交叉熵误差函数做scale(除
),得到
把它们的误差函数都画出来,可得下图:
![](https://img.haomeiwen.com/i5715116/ebbbca839d8dbae9.png)
从图中可知,一定有
由此可以用VC维理论证明,使用也可以做好分类任务,有两种思路:
- 从分类的角度出发,有
- 从交叉熵角度出发,有
不管用哪种方式,只要保证足够小,都可以保证
也足够小,也就是说,使用逻辑回归或线性回归都可以做线性分类。
用PLA、线性回归、逻辑回归做分类,三种方法的优缺点如下:
![](https://img.haomeiwen.com/i5715116/d60ec5f5cd087883.png)
3.2 随机梯度下降
PLA每次迭代的时间复杂度为,但逻辑回归(或pocket算法)每次迭代都需要对
中的所有样本进行一次运算,时间复杂度为
,能不能让每次迭代的时间复杂度也变成
?
我们在做更新时,取了
可以看到,计算梯度需要遍历所有样本,复杂度实在太高了。可将它里面的看作是期望
,相当于不断随机抽一个样本计算出来的结果的平均。若将随机抽一个样本
算出来的梯度称为随机梯度
,那么真正的梯度可看作是它的期望:
这样,就可以用随机梯度下降(Stochastic Gradient Descent,SGD)进行迭代。它的好处是非常简单,计算的成本低,非常适用于大数据或在线学习的情况,缺点是不够稳定。
在逻辑回归中,用SGD更新的步骤就变成了
这与PLA中的更新步骤十分相似,PLA中是这样的:
因此用SGD的逻辑回归,可以看作是“软”的PLA。而反过来,若取,则PLA在
很大的时候也可以看作是用SGD的逻辑回归。
在用SGD时,有两个经验法则:
- 什么时候停止?
足够大的时候就可以(不要判断梯度是否真的为0,否则又会带来梯度计算的复杂度);
- 当
在一般范围内时,就取
吧。
4 多分类问题
4.1 用逻辑回归做多分类
假设,数据分布如下图:
![](https://img.haomeiwen.com/i5715116/5309b6c2d907d969.png)
可对每个类别分别做一次分类,如下图:
![](https://img.haomeiwen.com/i5715116/436e3c9128325480.png)
但这样做,在最后要把它们结合起来时,会出现问题,有些区域无法判定属于哪一类:
![](https://img.haomeiwen.com/i5715116/ac4a6076cf61ea8a.png)
怎么解决呢?可以用逻辑回归做“软”分类器,依旧是对每个类别,用数据集
做一次逻辑回归,得到一个分类器:
![](https://img.haomeiwen.com/i5715116/eb718b49de3db3bf.png)
做完后要将它们结合起来,可取,这样就得到某个点应该属于哪一类了:
![](https://img.haomeiwen.com/i5715116/dca08bdd94132d1e.png)
这样做称为OVA(One-Versus-All) Decomposition,好处是有效率,可以和类似逻辑回归的方法结合起来,但缺点在于当很大时,往往会使
非常不平衡,比如有100类,并且分布比较均匀,OVA每次用于训练的样本的两类数据的个数就会非常悬殊。
可以再进行扩展,如multinomial ('coupled') logistic regression,加入一些如“属于不同类的概率加起来应该为1”之类的限制,让它更适合用于多分类。
4.2 用二分类做多分类
为了克服不平衡问题,可以对两两类别进行训练,即用数据集
进行线性二分类:
![](https://img.haomeiwen.com/i5715116/a3e22c551141be20.png)
最后,取
即可:
![](https://img.haomeiwen.com/i5715116/e3e2ec77dd2bd6fa.png)
这样的方法叫作OVO(One-Versus-One)Decomposition,好处在于有效率(因为每次训练用的数据量较少),并且是稳定的,可以和任何二分类方法相结合,但缺点在于不断计算的操作总共的复杂度是
,需要更多运算空间。当
不是非常大时,OVO很常用。
5 非线性变换
对于某些数据集来说,不管怎么使用线性模型,都很大:
![](https://img.haomeiwen.com/i5715116/b0c0995c8818ba08.png)
5.1 二次的假设集
我们发现,如果用一个圆来做它的分类界线,它其实是可分的:
![](https://img.haomeiwen.com/i5715116/d6be008fe7815466.png)
所以我们要重新设计圆形PLA、圆形回归、……吗?当然不是。我们可以将用变换
映射到
,使得在
中圆形可分的数据在
中线性可分。
通过由映射而来的
空间,可构成一般的二次假设集:
当然也可以用更高次的非线性变换,用非线性变换的流程如下图:
![](https://img.haomeiwen.com/i5715116/e049e90ae33c2fef.png)
具体步骤如下:
- 先用
将
变换到
;
- 用
和线性分类算法
训练出模型
;
- 返回
即可。
5.2 复杂度的代价
假设用次的非线性变换:
式中的项数是多少呢?若有
个特征,可以在补上1后认为上面式子后边的每一项都是
次的,也就是说要对
项每项都赋予一个次数,并且所有次数之和必须为
。可以用隔板法:想象共有
个小球,要在它们的空隙中放入
个隔板,隔成
段,每一段的小球个数减去1代表了对应位置的项的次数,由于要求每段中至少有1个小球,因此两端不能放隔板,共有
个位置可放隔板,共有
种放法,也就是说,上式等号右边的项数
当较大时,一方面计算或存储的成本非常高,另一方面
是
的上界,
太大会导致
过大,模型损失了泛化能力。
5.3
的选择
如何选择?假设
,
,……,
,将它们的假设集分别记为
,
,……,
,它们存在嵌套关系
如图所示:
![](https://img.haomeiwen.com/i5715116/facad900180b80d7.png)
并且,它们的VC维满足
若取,则它们的
满足
如何选择?安全的做法是,先看
是否已经足够小,如果足够小,就可以了,否则,就用再稍微复杂一些的模型,也就是在下图中向右移动:
![](https://img.haomeiwen.com/i5715116/92dd0db0c08f9f88.png)
网友评论