这是本篇文章是《机器学习入门》系列文章的第三篇,该系列有如下文章:
《机器学习入门——基础篇》
《机器学习入门——实战篇之监督学习》
《机器学习入门——实战篇之非监督学习》
《机器学习入门——实战篇之深度学习》
《机器学习入门——实战篇之强化学习》
先回顾我们在《机器学习入门——基础篇》里面讲到的非监督学习的概念。那时,我们举例讲了聚类,首先是自然聚类:
8-非监督学习-聚类.jpg但是,自然聚类会出现反直觉的情况,如下图:
9-非监督学习-反直觉聚类.jpg明明很简单的两个类别被从中间“切开”分成了反直觉的两类,为了解决这个明显的困惑,我们引入了更高级的聚类算法,高斯聚类:
10-非监督学习-高斯聚类.jpg如上图,这样子分布的数据可以说是大约符合高斯分布的,那么我们就可以按照高斯分布把数据分成一类又一类,也就是说,同类的某种数据自然的以某个概率均值为中心服从高斯分布,我们把它们找出来就对了。
接下来,我们看看,用聚类算法可以具体实现一些什么事情。
假如我们现在有这样一组数据,是某个视频网站上用户对于视频的打分,例如某用户对于科幻类视频打分4.5,有可能对于爱情类的电影打分为3。那么我们能不能通过打分来把用户分个类,从而了解用户的喜好和品位,进而推荐内容呢?那么我们试一试。
首先是数据:
非监督学习-电影评分.png横轴是科幻类电影评分,纵轴是爱情类电影评分,然后我们用数据预处理的办法把这些点点都装进一个list:
X = biased_dataset[['avg_scifi_rating','avg_romance_rating']].values
接下来,开始变戏法了:
# 引入KMeans库
from sklearn.cluster import KMeans
# 实例化的时候带一个参数,聚成两类
kmeans_1 = KMeans(n_clusters=2)
# 预测一下
predictions = kmeans_1.fit_predict(X)
最后我们把聚类以后的图画出来,如下:
非监督学习-电影用户聚2类.png用不同的颜色标注出来,可以看出分组的依据主要是每个人对爱情片的评分高低。如果爱情片的平均评分超过 3 星,则属于第一组,否则属于另一组。
如果分成三组,会发生什么?
kmeans_2 = KMeans(n_clusters=3)
其余代码省略,得到下面结果:
非监督学习-电影用户聚3类.png现在平均科幻片评分开始起作用了,分组情况如下所示:
• 喜欢爱情片但是不喜欢科幻片的用户
• 喜欢科幻片但是不喜欢爱情片的用户
• 即喜欢科幻片又喜欢爱情片的用户
再添加一组,又会发生什么?
kmeans_3 = KMeans(n_clusters=4)
这次基本无法清晰的解释分类的意义了,这也是无监督学习的特点之一,很快就无法解释聚类的含义,所以恰当的选择类别数量是一门艺术:)
且不谈艺术,工程上,我们总得有个办法来控制这个值,这里介绍一个“肘部法”,名字真是古怪,道理倒是简单:计算随着类别数增加带来的误差的变化,找出比较小的误差就是了。那么误差怎么计算呢,以两类的情况举例,两类的话就有两个中心点,那么我们分别计算每一类中各个点到自己的中心点的距离,然后取个平方,再把结果加起来,就是误差总和了。
然后我们再介绍一个东西,叫轮廓系数,就是说,我们要评价两个方面,一个是某个类的内聚程度,另一方面是不同类的数据的分离度,结合起来才是好的聚类。
轮廓系数公式:
a(i) = average(i向量到所有它属于的簇中其它点的距离)
b(i) = min (i向量到与它相邻最近的一簇内的所有点的平均距离)
用轮廓系数,我们得到了这个实验结果,横轴是聚类的数量,纵轴是轮廓系数。我们看也就在开始的时候轮廓系数还算比较好,后面就一泻千里了,那么说明这个电影爱好者的数据的聚类种类不能太多。
于是我们就把用户强行分成了几类。那么我们可以思考一下,如果被分在某一类的用户并没有看过爱情片,而他所在的类别的其他用户对爱情片很不感冒,是否我们就可以认为这个用户也对爱情片不感冒呢?古老的“协同过滤算法”就是这么认为的。
但是今天我们有了用户更多的行为数据,会分析出更多的结果,甚至可以分析实时流数据。当然那是一个复杂的话题,本文不做讨论。
非监督学习里面其实还有很多的内容,譬如主成分分析PCA,也是一个很有价值的方向,本文暂且不做讨论。
这次就到这里吧,欢迎关注《机器学习入门》系列文章。
这是本篇文章是《机器学习入门》系列文章的第三篇,该系列有如下文章:
《机器学习入门——基础篇》
《机器学习入门——实战篇之监督学习》
《机器学习入门——实战篇之非监督学习》
《机器学习入门——实战篇之深度学习》
《机器学习入门——实战篇之强化学习》
网友评论