基本数学
决策树,朴素贝叶斯,线性回归,梯度下降
LR,SVM,NN,KT
k-means, hierarchical clustering
https://stanford.edu/~shervine/teaching/cs-221/
1 Intro
主要分类:Supervised learning and unsupervised learning
Some useful material:本课程的两大预备知识是数学与编程。在上课的过程中,我们会自然引入我们所需要的知识,但如果你还需要温习,我们为你推荐优达学城的以下免费课程:
此外,针对概率, 多变量微积分, 和线性代数,可汗学院也有一些非常不错的资源,在此推荐给你。
2 什么是机器学习
2.1 决策树算法
找到合适的分割树,然后用分割树来决定分类
2.2 朴素贝叶斯
针对每个特征,算这个特征如邮件含有cheap是垃圾邮件的概率;有spelling mistake是垃圾邮件的概率,如下
2.3 梯度下降
找到最快下降路径
2.4 线性回归(回归)
先画一条线,用平方计算距离计算误差,求和,然后不断使用梯度下降,即是最小二乘法,总的来说损失函数是平方距离误差
2.5 Logistics regression (分类)
通过公式计算每个点被错误分类的概率求和算误差,然后不断梯度下降,总的来说损失函数是对数损失函数(log loss function)
2.6 SVM
只考虑跟边界相关的点,使得离边界最小的距离最大化,可以使用梯度下降
2.7 神经网络
用多条线区分,综合多个训练的结果,进行训练
2.8 核方法
如果无法用一条线去分割,找到函数提升维度,比如两个维度x和y,用函数xy,就找到一个分割面进行分割
2.9 K-means clustering(知道聚多少类)
kmeans,先随机选点(选定几个中心点),再标识每个点离哪个中心最近选择为该中心点的类,再通过平均当前类的点重新更新中心点
2.10 Hierarchical clustering (不知道聚多少类)
找最近的两个点聚为1类,然后依次找最近的点,如果有一个点已经被聚到一个类了,就把新的点合并到这个类里吗,直到最近的两个点大于我们设定的距离就停止聚类
3 泰坦尼克号乘客生存率分析
https://github.com/ZSMX/Udacity_Machine_Learning/tree/master/C1/Titanic-Survival-Exploraton
网友评论