ML Lecture 20: Support Vector Machine (SVM)
1. outline

outline
2. loss function

square loss不合理(红线)

sigmoid+square loss(蓝线)

sigmoid+cross entropy(绿线)

Hinge loss
3. Linear SVM

loss function and VS logistic regression

gradient descent 求解 SVM

另一种理解,约束最优化问题 - 对偶解法
4. Dual Representation

对偶问题——不是支持向量的实例,对loss没有影响

表示为Kernel function
5. Kernel trick

kernel trick

kernel trick

kernel trick

RBF kernel——相当于在无穷多维做训练,容易over fitting

sigmoid kernel——有几个支持向量,就有几个神经元

kernel , DTA
6. others

SVMs

比较
网友评论