美文网首页代码改变世界
cs231n课程作业assignment1(Softmax)

cs231n课程作业assignment1(Softmax)

作者: 卑鄙的我_ | 来源:发表于2016-11-26 11:51 被阅读2540次

前言:


以斯坦福cs231n课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。该课程相关笔记参考自知乎-CS231n官方笔记授权翻译总集篇发布课程材料和事例参考自-cs231n
本章为线性分类器的softmax讲解,紧接上章的SVM,其中涉及到的一些线性分类器的知识已经在上章说明,本次便不再赘述。cs231n课程作业assignment1(SVM)

SoftMax分类器简介:


Softmax和SVM同属于线性分类器,主要的区别在于Softmax的损失函数与SVM的损失函数的不同。Softmax分类器就可以理解为逻辑回归分类器面对多个分类的一般化归纳。SVM将输出f(x_i,W)作为每个分类的评分,而Softmax的输出的是评分所占的比重,这样显得更加直观。

在Softmax分类器中,函数映射f(x_i;W)=Wx_i保持不变,但将这些评分值视为每个分类的未归一化的对数概率,并且将折叶损失(hinge loss)替换为交叉熵损失(cross-entropy loss)。公式如下:

![](http://latex.codecogs.com/svg.latex?L_i = -log( \frac{e^{f_{y_i}}}{\sum_j e^{f_j}}))

softmax

总结:


本章主要介绍了另一个线性分类器Softmax,阐述了Softmax与SVM的主要区别,而Softmax的loss function对于以后的神经网络的学习有很大的帮助。

相关文章

网友评论

    本文标题:cs231n课程作业assignment1(Softmax)

    本文链接:https://www.haomeiwen.com/subject/kptgpttx.html