前言
PCA是一种线性降维算法,不能解释特征之间的复杂多项式关系。如果特征与特征之间的关系是非线性的话,用PCA可能会导致欠拟合的情形发生。
线性降维算法的一个主要问题是它们集中将不相似的数据点放置在较低维度区域时,数据点相距较远。但是为了在低维、非线性曲面的流型上表示高维数据,我们也需要把相似的数据点放在一起展示,这不是线性降维算法所能做的。
t-SNE是一种比PCA更有效的非线性降维方法,它是基于在邻域图上随机游走的概率分布,可以在数据中找到其结构关系。t-SNE在高维空间中采用的高斯核心函数定义了数据的局部和全局结构之间的软边界,可以同时保留数据的局部和全局结构。局部方法寻求将流型上的附近点映射到低维表示中的附近点。 另一方面,全局方法试图保留所有尺度的几何形状,即将附近的点映射到附近的点,将远处的点映射到远处的点。
对同样的一组数据降维,t-SNE的结果明显优于PCA——
PCA结果图
imaget-SNE结果图
imaget-SNE降维原理
简易原理
假设我们现在需要将二维平面上分布的点降到一维直线上,
image如果我们直接将这些点投放在x轴或者y轴,不同颜色/cluster的点会会混合在一起。
t-SNE首先会将这些点随机摆放在直线上,然后t-SNE会逐渐将这些点移动,直到它们聚在一起(保留二维空间上的分布特征)。
image这些点是如何移动的呢?
黄色点来自于同一cluster,因此最左边上的这个黄色点希望朝其余的黄点靠近,而红色点由于和黄色的点不属于同一cluster,因此会被排斥。
image如同上述所讲,低维空间上的点会被其在高维空间的临近点所吸引,相对的,会排斥那些远距离的点。然后就这样一步一步的,原本高维空间上距离较近的点会逐渐聚拢在一起。
image详细原理
上面大致描述了一下t-SNE如何将近距离的点聚拢在一起。
但是如何判断谁和谁相互吸引?谁和谁相互排斥呢?
Step 1
计算二维平面上所有点的相似性(similarity)。
首先计算黑色点和其周围点的距离(此处暂时以两个点为例,黑色和蓝色),然后将这两个点排放在以黑色点为中心的正态曲线下,接下来计算蓝色点到正态曲线的长度(unscaled similarity distance,也成为similarity score)。
image进而,我们获得了黑色点同其余所有点的similarity scores。
imagesimilarity score大,表明两个点在二维平面上的距离近;相对的,表明两个点在二维平面上的距离远。
Step 2
获得黑色点同其余所有点的similarity score后,我们需要对这些scores进行标准化,使得它们加和为1。
为什么要进行标准化处理呢?
scaled similarity scores代表cluster的相对紧密度。
假设平面上有一个新紫色的cluster(我们暂且认为紫色cluster的分布和蓝色cluster完全一样,只是密度(density)是蓝色cluster的两倍,那么紫色cluster正态曲线的宽度也会是蓝色cluster的两倍(正态曲线的高度和宽度由方差决定)),
image进行标准化处理后,这两个cluster的similarity score就是一样的了(上面提到过,t-SNE可以同时保留数据的局部和全局结构)。
image当然了,t-SNE还有一个混乱度(perplexity)的参数来表示预期的密度(这个我还没搞明白,暂时步说了)。这个其实影响不大,实际上,这两个cluster的相似性远比我们自己预期的要大的多。
接下来我们会获得每一个点同其余所有点的scaled similarity scores。
Step 3
问题来了,由于每一个点所对应正态曲线的宽度是由其周围点分布的紧密度来决定的。那么两个点之间,前后两次计算的similarity scores可能会不同。所以t-SNE会将这两个点的similarity score求均值。
image最终,我们可以获得一个矩阵,每一行/列表示这个点同其他点的similarity score。
imageStep 4
计算一维直线上所有点的similarity scores。
同之前计算二维平面上点的计算过程一般,选择一个指定的点,然后计算其同周围点的距离,进而获得similarity scores。只是这次使用的曲线从正态分布变为t分布。
image这就是为什么t-SNE为什么有一个t的原因了。
此时获得的矩阵比上面那个矩阵显得混乱一些。
imaget-SNE每次移动一下直线上的点,移动的目的是为了让上图左边的矩阵变得像右边一样。
image
网友评论