最近写的代码用到pytorch,还记得之前有一个模型用的是Theano写的,复现了很久。师兄推荐学习pytorch,简单,而且更主流,本来推荐的是官方视频60分钟的入门,结果没办法看YouTube,只能上B站上看Pytorch入门学习,共八堂课,每门课两个小时,还算是比较容易入门,声音挺好听的,推荐。开始学习。
目录
第一课:深度学习回顾与pyTorch简介
第二课:词向量简介
第三课:语言模型
第四课:自然语言分类任务
第五课:简单图片分类
第六课:图片风格迁移和GAN
第七课:Seq2Seq与Attention
第八课:问答系统
第一课:深度学习回顾与pyTorch简介
torch.randn(sizes, out=None) → Tensor
返回一个张量,包含了从标准正态分布(均值为0,方差为1,即高斯白噪声)中抽取的一组随机数。张量的形状由参数sizes定义。如果是torch.randn(a,b,c)这种形式,会产生a个bc的矩阵。如果是torch.randn(a,b)这种形式,会产生1个a*b形式的矩阵。
torch.nn.Conv2d()函数详解
讲形状(size)很详细。
输入:
x
[ batch_size, channels, height_1, width_1 ]
batch_size 一个batch中样例的个数 2
channels 通道数,也就是当前层的深度 1
height_1, 图片的高 7
width_1, 图片的宽 3
Conv2d的参数
[ channels, output, height_2, width_2 ]
channels, 通道数,和上面保持一致,也就是当前层的深度 1
output 输出的深度 8
height_2, 过滤器filter的高 2
width_2, 过滤器filter的宽 3
输出:
res
[ batch_size,output, height_3, width_3 ]
batch_size, 一个batch中样例的个数,同上 2
output 输出的深度 8
height_3, 卷积结果的高度 6 = height_1 - height_2 + 1 = 7-2+1
width_3, 卷积结果的宽度 1 = width_1 - width_2 +1 = 3-3+1
什么是通道channel呢?下面博客写的也很好!
CNN中feature map、卷积核、卷积核个数、filter、channel的概念解释,以及CNN 学习过程中卷积核更新的理解
网友评论