美文网首页
第48周学习总结——神经网络

第48周学习总结——神经网络

作者: liuchungui | 来源:发表于2017-12-04 01:04 被阅读0次

主要学习内容是吴恩达的深度学习

吴恩达的深度学习

神经元

什么是神经元?它就是一个wx+b,然后后面跟一个激活函数。

神经网络

就是由多个神经元组成的一个网络结构。

前向传播

通过输入值x,从左向右计算,然后经过一层或多层神经网络,最终计算出一个预测值,这就是前向传播。

后向传播

通过损失函数,从右向左,计算出各层w和b的梯度值,然后经过梯度下降,将各层的w和b更新,这整个过程就是后向传播。

logistic回归

就是先进行前向传播,然后计算出一个预测值,将这预测值与实际值进行比较,从而计算出一个损失,然后通过这个损失计算出各层w和b的梯度值,从而使用梯度下降进行后向传播。然后,不停的循环,进行训练。这整个过程就是logistic回归。

浅神经网络

它其实整个流程和logistic回归是一样的,只是它有一层隐藏层,它也称作浅神经网络。

深度神经网络

它相比于前神经网络,只是它至少有两层隐藏层。

激活函数

常用的激活函数有sigmod、tanh、relu和relu leak,其中relu和relu leak比前两者好,因为前面两个当达到极大值或极小值时,梯度就很小了,梯度下降也会很慢,训练速度会很缓慢。

权重值为什么不能初始化为0?

这是因为当w都初始化为0后,它们相同层的神经元计算起来就对称了,当一次后向传播之后,由于梯度值也一样,所以相同层之间的w还是一样的,这样相当于一层只有一个神经元一样。

总结与计划

  • 总结: 做了第二周和第三周的练习,听了第三周课程,感觉很不错,弄懂了神经网络的整个计算过程。
  • 计划:继续学习深度学习,争取今年把这门课程赶上最新进度。

相关文章

网友评论

      本文标题:第48周学习总结——神经网络

      本文链接:https://www.haomeiwen.com/subject/ymhtixtx.html