摘要:为了简化卷积神经网络这个概念,本文将试着基于excel针对在开发深度学习模型过程中所做的运算进行解释。
为了简化卷积神经网络这个概念,我将试着针对在开发深度学习模型过程中所做的运算进行解释。要查阅这方面更多的内容,我建议在线搜索,因为网上的信息很多很多(像这样视频)。本文的这个解释来源于fast.ai仓库。
这个简单的神经网络图片基本上代表了本案例中发生的事情。
简单的神经网络
输入层
这个数字7的图像数据来自MNIST数据集,我们假设你正在使用预训练模型进行分类。
你可以在数据集中看到更大的数字7
隐藏层 1
隐藏层用于对输入进行转换,以便从输出层的数据中识别出更复杂的特征,从而做出更好的评估。
两个过滤器将呈现出不同的形状:第一个过滤器用于检测水平边缘,第二个过滤器检测垂直边缘。这个3x3的过滤器被称为卷积核。下图中的filter 1被激活用于检测输入中的水平边缘。Conv1展示了将输入分别乘以两个3x3卷积核之后的激活情况。下面的图片更形象地展示了这个过程。
虽然现在是以二维数组的形式来展示的,但它们其实应该被称为张量堆叠。每个矩阵表示张量中的一个切片。这些基本上都是线性代数中的行操作。
=SUM(F11:H13*$AD$11:$AF$13) 则是进行卷积运算。
该求和运算将根据输入中特定的3×3的部分计算得到激活数字3。
这代表了一个单一的层。
激活函数
接下来,我们将把非线性单元RELU作为激活函数来消除负数。在接下来的图片中,我们可以看到负数消失了。
隐藏层 2
接下来,我们要做另一个卷积。 Conv2将成为下一个隐藏层。我们要用Conv1同时乘以两个矩阵并取乘积之和。这里的卷积核用一个2X3X3的张量来表示。
在使用了RELU之后,我们现在创建了第二层。
第1层和第2层
最大池化
最大池化是通过对Conv2取2x2部分的最大值来得到分辨率为原始矩阵宽度和高度的一半的图像。在Maxpool矩阵中,我们可以看到Conv2的2x2部分的最大值是33。池的计算速度比卷积更快。此外,它具有平移不变性。
输出层
接下来,我们通过给Maxpool中的所有激活函数给予一个权重来建立完全连接层。这是通过矩阵乘法来实现的。在Excel中,我们将使用SUMPRODUCT函数。因此,不像以前那样需要在卷积层中解析每个部分,完全连接层将对由卷积层提取的特征执行分类,并通过最大池化层进行降采样。
文章原标题《Understanding Neural Networks Using Excel》,作者: Jean-Carlos Paredes,译者:夏天,审校:主题曲。
本文由阿里云云栖社区组织翻译。
网友评论