用Excel理解神经网络
2017-12-06 14:41
357 查看
原文链接:点击打开链接
摘要: 为了简化卷积神经网络这个概念,本文将试着基于excel针对在开发深度学习模型过程中所做的运算进行解释。
为了简化卷积神经网络这个概念,我将试着针对在开发深度学习模型过程中所做的运算进行解释。要查阅这方面更多的内容,我建议在线搜索,因为网上的信息很多很多(像这样视频)。本文的这个解释来源于fast.ai仓库。
这个简单的神经网络图片基本上代表了本案例中发生的事情。
简单的神经网络
这个数字7的图像数据来自MNIST数据集,我们假设你正在使用预训练模型进行分类。
你可以在数据集中看到更大的数字7
隐藏层用于对输入进行转换,以便从输出层的数据中识别出更复杂的特征,从而做出更好的评估。
两个过滤器将呈现出不同的形状:第一个过滤器用于检测水平边缘,第二个过滤器检测垂直边缘。这个3x3的过滤器被称为卷积核。下图中的filter 1被激活用于检测输入中的水平边缘。Conv1展示了将输入分别乘以两个3x3卷积核之后的激活情况。下面的图片更形象地展示了这个过程。
虽然现在是以二维数组的形式来展示的,但它们其实应该被称为张量堆叠。每个矩阵表示张量中的一个切片。这些基本上都是线性代数中的行操作。
该求和运算将根据输入中特定的3×3的部分计算得到激活数字3。
这代表了一个单一的层。
接下来,我们将把非线性单元RELU作为激活函数来消除负数。在接下来的图片中,我们可以看到负数消失了。
接下来,我们要做另一个卷积。 Conv2将成为下一个隐藏层。我们要用Conv1同时乘以两个矩阵并取乘积之和。这里的卷积核用一个2X3X3的张量来表示。
在使用了RELU之后,我们现在创建了第二层。
第1层和第2层
最大池化是通过对Conv2取2x2部分的最大值来得到分辨率为原始矩阵宽度和高度的一半的图像。在Maxpool矩阵中,我们可以看到Conv2的2x2部分的最大值是33。池的计算速度比卷积更快。此外,它具有平移不变性。
接下来,我们通过给Maxpool中的所有激活函数给予一个权重来建立完全连接层。这是通过矩阵乘法来实现的。在Excel中,我们将使用SUMPRODUCT函数。因此,不像以前那样需要在卷积层中解析每个部分,完全连接层将对由卷积层提取的特征执行分类,并通过最大池化层进行降采样。
文章原标题《Understanding Neural Networks Using Excel》,作者: Jean-Carlos Paredes,译者:夏天,审校:主题曲。
文章为简译,更为详细的内容请查看原文。
本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。
https://promotion.aliyun.com/ntms/act/ambassador/sharetouser.html?userCode=n7gh3gne&utm_source=n7gh3gne
我有几张阿里云幸运券分享给你,用券购买或者升级阿里云相应产品会有特惠惊喜哦!把想要买的产品的幸运券都领走吧!快下手,马上就要抢光了。
摘要: 为了简化卷积神经网络这个概念,本文将试着基于excel针对在开发深度学习模型过程中所做的运算进行解释。
为了简化卷积神经网络这个概念,我将试着针对在开发深度学习模型过程中所做的运算进行解释。要查阅这方面更多的内容,我建议在线搜索,因为网上的信息很多很多(像这样视频)。本文的这个解释来源于fast.ai仓库。
这个简单的神经网络图片基本上代表了本案例中发生的事情。
简单的神经网络
输入层
这个数字7的图像数据来自MNIST数据集,我们假设你正在使用预训练模型进行分类。你可以在数据集中看到更大的数字7
隐藏层 1
隐藏层用于对输入进行转换,以便从输出层的数据中识别出更复杂的特征,从而做出更好的评估。两个过滤器将呈现出不同的形状:第一个过滤器用于检测水平边缘,第二个过滤器检测垂直边缘。这个3x3的过滤器被称为卷积核。下图中的filter 1被激活用于检测输入中的水平边缘。Conv1展示了将输入分别乘以两个3x3卷积核之后的激活情况。下面的图片更形象地展示了这个过程。
虽然现在是以二维数组的形式来展示的,但它们其实应该被称为张量堆叠。每个矩阵表示张量中的一个切片。这些基本上都是线性代数中的行操作。
=SUM(F11:H13*$AD$11:$AF$13)则是进行卷积运算。
该求和运算将根据输入中特定的3×3的部分计算得到激活数字3。
这代表了一个单一的层。
激活函数
接下来,我们将把非线性单元RELU作为激活函数来消除负数。在接下来的图片中,我们可以看到负数消失了。
隐藏层 2
接下来,我们要做另一个卷积。 Conv2将成为下一个隐藏层。我们要用Conv1同时乘以两个矩阵并取乘积之和。这里的卷积核用一个2X3X3的张量来表示。在使用了RELU之后,我们现在创建了第二层。
第1层和第2层
最大池化
最大池化是通过对Conv2取2x2部分的最大值来得到分辨率为原始矩阵宽度和高度的一半的图像。在Maxpool矩阵中,我们可以看到Conv2的2x2部分的最大值是33。池的计算速度比卷积更快。此外,它具有平移不变性。
输出层
接下来,我们通过给Maxpool中的所有激活函数给予一个权重来建立完全连接层。这是通过矩阵乘法来实现的。在Excel中,我们将使用SUMPRODUCT函数。因此,不像以前那样需要在卷积层中解析每个部分,完全连接层将对由卷积层提取的特征执行分类,并通过最大池化层进行降采样。文章原标题《Understanding Neural Networks Using Excel》,作者: Jean-Carlos Paredes,译者:夏天,审校:主题曲。
文章为简译,更为详细的内容请查看原文。
本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。
https://promotion.aliyun.com/ntms/act/ambassador/sharetouser.html?userCode=n7gh3gne&utm_source=n7gh3gne
我有几张阿里云幸运券分享给你,用券购买或者升级阿里云相应产品会有特惠惊喜哦!把想要买的产品的幸运券都领走吧!快下手,马上就要抢光了。
相关文章推荐
- 用Excel理解神经网络
- 深度学习中对神经网络的理解
- 深度学习(四十)优化求解系列(2)简单理解神经网络求解过程-未完待续
- 神经网络neural network简单理解
- 深度学习资料整理(深度神经网络理解)
- 小白都理解的人工智能系列(5)—— 长短期循环神经网络LSTM RNN NO4
- 3.对神经网络训练中Epoch的理解
- 一文理解深度学习,卷积神经网络,循环神经网络的脉络和原理4-循环神经网络,LSTM
- 一名工程师对于深度学习的理解-神经网络基础ANN
- 理解CNN、DNN、RNN(递归神经网络以及循环神经网络)以及LSTM网络结构笔记
- 神经网络的Dropout的理解
- 神经网络之卷积理解
- 深度神经网络结构以及Pre-Training的理解
- 循环神经网络(RNN)反向传播算法(BPTT)理解
- 从图像到知识:深度神经网络实现图像理解的原理解析
- 一文理解深度学习,卷积神经网络,循环神经网络的脉络和原理1-深度学习基础
- [tensorflow应用之路]什么是深度神经网络——通过实现简单的神经网络理解DNN
- [我们是这样理解语言的-3]神经网络语言模型
- 简单理解LSTM神经网络
- 深度学习深理解(三)-浅层神经网络