您的位置:首页 > 其它

如何理解卷积、权值共享、池化

2015-04-12 18:45 218 查看
要理解卷积,首先你要理解什么是全连接和局部连接,全连接是什么?举个例子,100*100大小的图像,假设有100个隐含神经元,那么就有100*100*100个连接,

太可怕,局部连接是什么,假设每个隐含神经元只局部连接10*10,那么就有10*10*100个连接。

那么什么是卷积,什么又是权值共享?

说道权值共享,就需要提到感受野,感受野其实就是一个隐含神经元的局部连接大小,权值共享就是感受野的权值一样,也就是说,假设这层的感受野是2*2,这层隐含神经元就会有100*(2*2+1)的连接,这里代表偏置。

卷积呢?这里的卷积和信号里面的卷积还是有一定区别的,这里的目的是,用小样本来学习大样本的特征,假如小样本是8*8,那么每个神经元就可以得到(100-8+1)*(100-8+1)个特征,这一层就一共有100*93*93个卷积特征。

什么是池化呢?

上面卷积不是获得了特征吗?可是还是有很多的维数啊,100*93*93维的卷积特征,太庞大了,为了解决这个问题,首先回忆一下,我们之所以决定使用卷积后的特征是因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值
(或最大值)。这些概要统计特征不仅具有低得多的维度 (相比使用所有提取得到的特征),同时还会改善结果(不容易过拟合)。这种聚合的操作就叫做池化 (pooling),有时也称为平均池化或者最大池化 (取决于计算池化的方法)。

也就是说,池化就是特征的聚合统计,依据于图像的静态性属性。

做完以上工作,再进行全连接层的建立,训练,并加上分类器,分类器可有有很多,KNN,softmax,SVM等等,再进行常规的训练,也可以用wake-sleep的训练。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: