美文网首页算法机器学习与数据挖掘寒哥管理的技术专题
零基础入门深度学习(4) - 卷积神经网络

零基础入门深度学习(4) - 卷积神经网络

作者: 韩炳涛 | 来源:发表于2016-10-09 20:34 被阅读2886次

相关文章

网友评论

  • 北静王:公式9中,加和公式应该是从0-N,而且每个深度应该是分开求的。所以左边的delta也应该是有个下标d。
  • 6817b1946c1b:老师您好,请问26号公式下面那两个公式是不是写错了?应该是L-1层的输出值对损失函数的微分吧,这里写的是a(L),还有公式17上面,误差项(L-1)(i,j),表示L-1层第j行j列的误差项?不知是不是笔误~~:flushed:
  • 52cfbe3e36d2:老师,我有一个疑问,反向传播的时候您只介绍了stride的影响而没有对padding的情况做介绍?若L-1层为3*3,stride=1,padding=1的话L层应该有4*4的元素,没有padding只会有2*2的元素。这不是说明padding对误差项的传递是有影响的么?还请老师赐教。
    韩炳涛:@善哉捏捏 有影响,不过算法是一样的。
  • 7e2521e204c4:老师您好,我把您的卷积代码在python 2.7运行,梯度检查运行的结果和你的截图梯度检查的结果有些不一样
  • 豌豆的号角:"上面代码值得思考的地方在于,传递给卷积层的sensitivity map是全1数组,留给读者自己推导一下为什么是这样(提示:激活函数选择了identity函数:", 小生愚钝,请问为什么是全1数组呢?sensitivity map是通过下一层传递过来的呀,下一层该怎么计算?
  • 北静王:作者您好,有个小问题。图像不同的深度为什么还是使用的同样的filter,按照我的理解。应该是不同的filter。好比图片有RGB,每个通道有不同的纹理特性,应该是使用不同的filter。主要是您文中在举例子多深度的时候,使用的那个动态图里面就是使用的是相同的filter。不知道我的理解是否有错误的地方。
    韩炳涛: @北静王 非要这么做也可以,不同方式可以都试一下,看看哪种效果更好。
    北静王:@韩炳涛 是不是也可以用不同的filter只不过就是参数多了
    韩炳涛: @北静王 基本的CNN,每一个filter都会处理所有通道的信息,产生一个新的通道。可以理解为这个filter综合考虑了输入给它的所有通道信息,但数学实现上就是简单的加和。
  • c3803bfc04db:请问get_patch函数是怎么实现的呢
    韩炳涛:代码已经放到GitHub上:https://github.com/hanbt/learn_dl
  • 晴天雨_fa54:老师您好,我在运行代码时遇到两个问题,向您请教一下。
    1、ConvLater类的构造函数里,self.output_width = ConvLayer.calculate_output_size(self.input_width, filter_width, zero_padding, stride)出错,报错如下:TypeError: calculate_output_size() missing 1 required positional argument: 'stride'
    2、梯度检查函数里,cl = ConvLayer(5,5,3,3,3,2,1,2,IdentityActivator(),0.001)和cl.backward(a, sensitivity_array, IdentityActivator())中的IdentityActivator()是在哪里定义的呀,没有发现这个函数或类
    谢谢老师~
    韩炳涛:代码已经放到GitHub上,您可以再试一下。我是用python2.7编写的,python3不支持。

本文标题:零基础入门深度学习(4) - 卷积神经网络

本文链接:https://www.haomeiwen.com/subject/rqbfettx.html