美文网首页
线性分类器损失函数

线性分类器损失函数

作者: Supreme_DJK | 来源:发表于2017-07-18 10:59 被阅读0次

    SOFTMAX 与 SVM 比较

    SVM(支持向量机):

    考量接近边界的样例点

    SOFTMAX:

    考量所有的样例点

    相对于Softmax分类器,SVM更加“局部目标化(local objective)”,这既可以看做是一个特性,也可以看做是一个劣势。考虑一个评分是[10, -2, 3]的数据,其中第一个分类是正确的。那么一个SVM(\Delta =1)会看到正确分类相较于不正确分类,已经得到了比边界值还要高的分数,它就会认为损失值是0。SVM对于数字个体的细节是不关心的:如果分数是[10, -100, -100]或者[10, 9, 9],对于SVM来说没设么不同,只要满足超过边界值等于1,那么损失值就等于0。

    对于softmax分类器,情况则不同。对于[10, 9, 9]来说,计算出的损失值就远远高于[10, -100, -100]的。换句话来说,softmax分类器对于分数是永远不会满意的:正确分类总能得到更高的可能性,错误分类总能得到更低的可能性,损失值总是能够更小。但是,SVM只要边界值被满足了就满意了,不会超过限制去细微地操作具体分数。这可以被看做是SVM的一种特性

    SVM 与SOFTMAX 是主要的两个分类器

      >>1.  与kNN分类器不同,参数方法的优势在于一旦通过训练学习到了参数,就可以将训练数据丢弃了。同时该方法对于新的测试数据的预测非常快,因为只需要与权重W进行一个矩阵乘法运算。

    相关文章

      网友评论

          本文标题:线性分类器损失函数

          本文链接:https://www.haomeiwen.com/subject/rmmckxtx.html