美文网首页
逻辑斯谛回归Logistic Regression和神经网络的联

逻辑斯谛回归Logistic Regression和神经网络的联

作者: 逃课的人工智能 | 来源:发表于2020-07-07 22:41 被阅读0次

我感觉用logistic回归的思想来解释神经网络比较切合。以二分类为例:
X表示样本{x_1,x_2,....};C表示类别{c_1=1,c_2=-1}P表示概率。

已知如下:

P(C_1|x_1)/P(C_2|X_1)>1X_1属于C_1类,
P(C_1|x_1)/P(C_2|X_1)<1X_1属于C_2类.

由于是二分类问题,可以将上式继续简化

P(C_1|x_1)/(1-P(C_1|x_1))>1X_1属于C_1类,

P(C_1|x_1)/(1-P(C_1|x_1))<1X_1属于C_2类,

上述公式是分类问题的描述,但是这个公式还有一个问题需要处理,由函数x/(1-x)图像可知,在0和1附近的值太小和太大将函数图像的波动掩盖了,所以需要加上对数,ln{P(C_1|x_1)/(1-P(C_1|x_1))}

下面引入logitic regression(LR)和神经网络。

  1. LR(欢迎讨论,根据自己理解定义的)

    经过上述的讨论我们知道了要拟合的目标即:ln{P(C_1|x_1)/(1-P(C_1|x_1))},使用\overrightarrow w \overrightarrow x+\overrightarrow b来拟合的话就是LR模型,推导如下:

    ln{P(C_1|x_1)/(1-P(C_1|x_1))}=\overrightarrow w \overrightarrow x+\overrightarrow b

    e^{ln{P(C_1|x_1)/(1-P(C_1|x_1))}}=e^{\overrightarrow w \overrightarrow x+\overrightarrow b}

    P(C_1|x_1)/(1-P(C_1|x_1))=e^{\overrightarrow w \overrightarrow x+\overrightarrow b}

    1/(\frac {1}{P(C_1|x_1)}-1)=e^{\overrightarrow w \overrightarrow x+\overrightarrow b}

    P(C_1|x_1)=\frac {e^{\overrightarrow w \overrightarrow x+\overrightarrow b}}{1+e^{\overrightarrow w \overrightarrow x+\overrightarrow b}}

    由二分类可知,

    P(C_2|x_1)=\frac {1}{1+e^{\overrightarrow w \overrightarrow x+\overrightarrow b}}

    P(C_2|x_1)+P(C_1|x_1)= 1
    以上也可与推广到多分类。

  1. 神经网络

    神经网络也是在拟合ln{P(C_1|x_1)/(1-P(C_1|x_1))},只不过神经网络表示的函数{(\overrightarrow w \overrightarrow x+\overrightarrow b)}^{*}要复杂的多,加个星号表示的是广义的。

相关文章

网友评论

      本文标题:逻辑斯谛回归Logistic Regression和神经网络的联

      本文链接:https://www.haomeiwen.com/subject/bvetcktx.html