
先介绍几个概念:
决策树,朴素贝叶斯,梯度下降,线性回归
决策树

朴素贝叶斯
这里我只想到贝叶斯的概率公式,欢迎补充。

梯度下降
记得第一次看见这个概念是在多元微积分里,这次捡起来。
梯度下降用来最小化误差。

线性回归
提到这个直接想到的就是最小二乘法,通过散点拟合线性方程。

接下来是机器学习常用的算法:
逻辑回归

SVM(支持向量机)

核函数

神经网络


K均值聚类
如果数据有很多堆呢?

层次聚类
如果不知道k聚类分成多少堆,这时候用层次聚类再合适不过了。

总结:
可以说逻辑回归是一个把数据分成部分的忍者,而SVM又一个对周围的数据比较挑剔。

神经网络是一个忍者群,核函数让不同的东西上升或者下降。

网友评论