美文网首页
Lihongyi.2016fall.Lecture20.SVM.

Lihongyi.2016fall.Lecture20.SVM.

作者: 小异_Summer | 来源:发表于2018-03-26 22:54 被阅读0次

ML Lecture 20: Support Vector Machine (SVM)

1. outline

outline

2. loss function

square loss不合理(红线) sigmoid+square loss(蓝线) sigmoid+cross entropy(绿线) Hinge loss

3. Linear SVM

loss function and VS logistic regression gradient descent 求解 SVM 另一种理解,约束最优化问题 - 对偶解法

4. Dual Representation

对偶问题——不是支持向量的实例,对loss没有影响 表示为Kernel function

5. Kernel trick

kernel trick kernel trick kernel trick RBF kernel——相当于在无穷多维做训练,容易over fitting sigmoid kernel——有几个支持向量,就有几个神经元 kernel , DTA

6. others

SVMs 比较

相关文章

网友评论

      本文标题:Lihongyi.2016fall.Lecture20.SVM.

      本文链接:https://www.haomeiwen.com/subject/lxqkcftx.html