Logistic Regression (ntu.edu.tw)
http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2016/Lecture/Logistic%20Regression%20(v3).pdf




线性回归:输出任何值
逻辑回归:输出值0-1之间

我们熟悉的是,找使得loss最小的w和b
所以我们转换一下L函数

1、Ln:连乘--连加
2、取负号









用SE(线性回归求loss)方式,是不可取的。
因为:离最低点,最近和最远的位置,都梯度下降都更新的很慢


训练集、模型函数一样,逻辑回归和线性回归求的w和b不一样。

一般情况下,做分类,判别式的效果更好。
例子:



1×1:朴素贝叶斯、独立
采用生成式,却判断为第二类。
原因:训练集样本太少
所以要有足够多的训练样本

生成式(线性回归)模型优点:
1、数据集样本少的时候
2、样本中有很多噪音干扰的时候
3、Priors and class-dependent来自不同的分布
(语音识别:用的是生成式)
多分类:
softmax:在0-1之间,会把输入扩大化

不能把分类输出用1、2、3、4、5、...表示。用one-hot编码方式。

逻辑回归的缺陷:

没有办法用一条线,把红点和蓝点,两个类别隔开。

解决方法:1、特征转换Feature Transformation

2、级联的逻辑回归---深度学习



Neuron神经元

网友评论