美文网首页机器学习100天
神经网络与深度学习第三章阅读

神经网络与深度学习第三章阅读

作者: 我的昵称违规了 | 来源:发表于2019-06-09 08:38 被阅读2次

第三章线性模型

线性模型的公式
f(W;X)=W^T * X

  • W是d维权重集合,W=[w_1,...,w_d]
  • X是d维样本集合,X=[x_1,...,x_d]

得到的预测结果y,y=f(W;X),但是这个结果是一些离散标签,需要引入一个非线性的决策函数g()来预测输出目标
y=g(f(W;X))
这里主要介绍的四中不同的线性分类模型:logistic回归,softmax回归,感知器(MLP),支持向量机(SVM)

3.1 线性判别函数和决策边界

3.1.1 二分类

3.1.2 多类分类

分类的类别数C大于2,需要多个线性判别函数。如果类别为{1,2,3,...,C},常用分类方式:

  • 一对其余:多类分类转为C个一对其余的二分类
  • 一对一:多类分类转为C(C-1)/2个一对一的二分类
  • argmax:改进的一对其余方式,需要C个判别函数,能够解决“特征空间中存在难以确定类别的区域”的问题

3.2 Logistic回归

使用激活函数解决连续的线性函数不适合分类的问题,将线性函数值域压缩到(0,1)之间,表示概率。
在Logistic回归中,使用Logistic函数作为激活函数。
标签y=1的后验概率:
p(y=1|X)=\sigma(W^TX)=\frac{1}{1+exp(-W^TX)}
标签y=0的后验概率:
p(y=0|X)=1-p(y=1|X)=\frac{exp(-W^TX)}{1+exp(-W^TX)}
现在对上面的公式进行变换
W^TX=log{\frac{p(y=1|x)}{1-p(y=1|x)}}=log{\frac{p(y=1|x)}{p(y=0|x)}}

3.2.1 参数学习

Logistic回归采用交叉熵作为损失函数,梯度下降作为参数优化。

3.3 softmax回归

也叫多项、多类Logistic回归,是多类分类问题的推广。
p(y=c|X)=softmax(W_c^TX)=\frac{exp(W_c^TX)}{\Sigma^C_{c'=1}exp(W_c^TX)}
向量表示
\hat y=softmax(W^TX)=\frac{W^TX}{1^Texp(W^TX)}
决策函数是argmax
\hat y=argmax^C_{c=1}p(y=c|X)=argmax^C_{c=1}W_c^TX

3.4 感知器

是一种简单的二类线性分类模型

3.4.2 感知器的收敛性

3.4.3 参数平均感知器

3.4.4 扩展到多类分类

3.5 支持向量机SVM

是一个经典两类分类算法,其找到的分割超平面具有更好的鲁棒性。

3.5.1 核函数

将样本映射到更高维度,解决原始特征空间线性不可分的问题。

3.5.2 软间隔

学的有点崩坏了,这本书得配合练习来做。

相关文章

网友评论

    本文标题:神经网络与深度学习第三章阅读

    本文链接:https://www.haomeiwen.com/subject/jnrgxctx.html