UFLDL深度学习笔记 (一)基本知识与稀疏自编码
UFLDL深度学习笔记 (一)基本知识与稀疏自编码
前言
近来正在系统研究一下深度学习,作为新入门者,为了更好地理解、交流,准备把学习过程总结记录下来。最开始的规划是先学习理论推导;然后学习一两种开源框架;第三是进阶调优、加速技巧。越往后越要带着工作中的实际问题去做,而不能是空中楼阁式沉迷在理论资料的旧数据中。深度学习领域大牛吴恩达(Andrew Ng)老师的UFLDL教程 (Unsupervised Feature Learning and Deep Learning)提供了很好的基础理论推导,文辞既系统完备,又明白晓畅,最可贵的是能把在斯坦福大学中的教学推广给全世界,尽心力而广育人,实教授之典范。
这里的学习笔记不是为了重复UFLDL中的推导过程,而是为了一方面补充我没有很快看明白的理论要点,另一方面基于我对课后练习的matlab实现,记录讨论卡壳时间较长的地方。也方便其他学习者,学习过程中UFLDL所有留白的代码模块全是自己编写的,没有查网上的代码,经过一番调试结果都达到了练习给出的参考标准,而且都按照矩阵化实现(UFLDL称为矢量化 vectorization),代码链接见此https://github.com/codgeek/deeplearning,所以各种matlab实现细节、缘由也会比较清楚,此外从实现每次练习的代码commit中可以清楚看到修改了那些代码,欢迎大家一起讨论共同进步。
理论推导中的要点
先上一个经典的自编码神经网络结构图。推导中常用的符号表征见于此
上图的神经网络结构中,输入单个向量\(\ x\\),逐层根据网络参数矩阵\(\ W, b\\)计算前向传播,最后输出向量hW,b(x)hW,b(x)
后向传导以及对网络权值\(\ W, b\\)的梯度公式不变。
在反向传导的前因后果段落,我们已经知道了要用梯度下降法搜索使代价函数最小的自变量\(\ W, b\\)。实际上梯度下降也不是简单减梯度,而是有下降速率参数\(\ \alpha\\)的L-BFGS,又牵扯到一个专门的优化。为了简化要做的工作量,稀疏自编码练习中已经帮我们集成了一个第三方实现,在minFunc文件夹中,我们只需要提供代价函数、梯度计算函数就可以调用minFunc实现梯度下降,得到最优化参数。后续的工作也就是要只需要补上sampleIMAGES.m, sparseAutoencoderCost.m, computeNumericalGradient.m的"YOUR CODE HERE"的代码段。
exercise代码实现难点
UFLDL给大家的学习模式很到家,把周边的结构性代码都写好了matlab代码与注释,尽量给学习者减负。系数自编码中主m文件是train.m。先用实现好的代价、梯度模块调用梯度检验,然后将上述代价、梯度函数传入梯度下降优化minFunc。满足迭代次数后退出,得到训练好的神经网络系数矩阵,补全全部待实现模块的完整代码见此,https://github.com/codgeek/deeplearning.
其中主要过程是
训练数据
训练数据来源是图片,第一步要在sampleIMAGES.m中将其转化为神经网络\(\ x\\)向量。先看一下训练数据的样子吧
sampleIMAGES.m模块是可以被后续课程复用的,尽量写的精简通用些。从一幅图上取patchsize大小的子矩阵,要避免每个图上取的位置相同,也要考虑并行化,循环每张图片取patch效率较低。下文给出的方法是先随机确定行起始行列坐标,计算出numpatches个这样的坐标值,然后就能每个patch不关联地取出来,才能运用parfor做并行循环。
sampleIMAGES.m function patches = sampleIMAGES(patchsize, numpatches) load IMAGES; % load images from disk dataSet=IMAGES; dataSet = IMAGES; patches = zeros(patchsize*patchsize, numpatches); % 初始化数组大小,为并行循环开辟空间 [row, colum, numPic] = size(dataSet); rowStart = randi(row - patchsize + 1, numpatches, 1);% 从一幅图上取patchsize大小子矩阵,只需要确定随机行起始点,范围是[1,row - patchsize + 1] columStart = randi(colum - patchsize + 1, numpatches, 1);% 确定随机列起始点,范围是colum - patchsize + 1 randIdx = randperm(numPic); % 确定从哪一张图上取子矩阵,打乱排列,防止生成的patch顺序排列。 parfor r=1:numpatches % 确定了起始坐标后,每个patch不关联,可以并行循环取 patches(:,r) = reshape(dataSet(rowStart(r):rowStart(r) + patchsize - 1, columStart(r):columStart(r) + patchsize - 1, randIdx(floor((r-1)*numPic/numpatches)+1)),[],1); end patches = normalizeData(patches) end
后向传播模型的矩阵实现
稀疏自编码最重要模块是计算代价、梯度矩阵的sparseAutoencoderCost.m。输入\(\ W, b\\)与训练数据data,外加稀疏性因子、稀疏项系数、权重\(\ W\\)系数,值得关注的是后向传导时隐藏层输出的残差delta2是由隐藏层与输出层的网络参数\(\ W2\\)和输出层的残差delta3决定的,不是输入层与隐藏层的网络参数\(\ W1\\),这里最开始写错了,耽误了一些时间才调试正确。下文结合代码用注释的形式解释每一步具体作用。
sparseAutoencoderCost.m
function [cost,grad] = sparseAutoencoderCost(theta, visibleSize, hiddenSize, ...
lambda, sparsityParam, beta, data)
%% 一维向量重组为便于矩阵计算的神经网络系数矩阵。
W1 = reshape(theta(1:hiddenSizevisibleSize), hiddenSize, visibleSize);
W2 = reshape(theta(hiddenSizevisibleSize+1:2hiddenSizevisibleSize), visibleSize, hiddenSize);
b1 = theta(2hiddenSizevisibleSize+1:2hiddenSizevisibleSize+hiddenSize);
b2 = theta(2hiddenSizevisibleSize+hiddenSize+1:end);
%% 前向传导,W1矩阵为hiddenSize×visibleSize,训练数据data为visibleSize×N_samples,训练所有数据的过程正好是矩阵相乘$\ W1*data\ $。注意所有训练数据都共用系数$\ b\ $,而单个向量的每个分量对用使用$\ b\ $的对应分量,b1*ones(1,m)是将列向量复制m遍,组成和$\ W1*data\ $相同维度的矩阵。 [~, m] = size(data); % visibleSize×N_samples, m=N_samples a2 = sigmoid(W1*data + b1*ones(1,m));% active value of hiddenlayer: hiddenSize×N_samples a3 = sigmoid(W2*a2 + b2*ones(1,m));% output result: visibleSize×N_samples diff = a3 - data; % 自编码也就意味着将激活值和原始训练数据做差值。 penalty = mean(a2, 2); % measure of hiddenlayer active: hiddenSize×1 residualPenalty = (-sparsityParam./penalty + (1 - sparsityParam)./(1 - penalty)).*beta; % penalty factor in residual error delta2 % size(residualPenalty) cost = sum(sum((diff.*diff)))./(2*m) + ... (sum(sum(W1.*W1)) + sum(sum(W2.*W2))).*lambda./2 + ... beta.*sum(KLdivergence(sparsityParam, penalty));
<span class="hljs-comment">% 后向传导过程,隐藏层残差需要考虑稀疏性惩罚项,公式比较清晰。</span> delta3 = -(data-a3).*(a3.*(<span class="hljs-number">1</span>-a3)); <span class="hljs-comment">% visibleSize×N_samples</span> delta2 = (W2'*delta3 + residualPenalty*ones(<span class="hljs-number">1</span>, m)).*(a2.*(<span class="hljs-number">1</span>-a2)); <span class="hljs-comment">% hiddenSize×N_samples. !!! => W2'*delta3 not W1'*delta3</span> <span class="hljs-comment">% 前面已经推导出代价函数对W2的偏导,矩阵乘法里包含了公式中l层激活值a向量与1+1层残差delta向量的点乘。</span> W2grad = delta3*a2'; <span class="hljs-comment">% ▽J(L)=delta(L+1,i)*a(l,j). sum of grade value from N_samples is got by matrix product visibleSize×N_samples * N_samples× hiddenSize. so mean value is caculated by "/N_samples"</span> W1grad = delta2*data';<span class="hljs-comment">% matrix product visibleSize×N_samples * N_samples×hiddenSize</span> b1grad = sum(delta2, <span class="hljs-number">2</span>); b2grad = sum(delta3, <span class="hljs-number">2</span>); <span class="hljs-comment">% 对m个训练数据取平均</span> W1grad=W1grad./m + lambda.*W1; W2grad=W2grad./m + lambda.*W2; b1grad=b1grad./m; b2grad=b2grad./m;<span class="hljs-comment">% mean value across N_sample: visibleSize ×1</span> <span class="hljs-comment">% 矩阵转列向量</span> grad = [W1grad(:) ; W2grad(:) ; b1grad(:) ; b2grad(:)];[/code]
end
最终结果
在tarin.m中,将sparseAutoencoderCost.m传入梯度优化函数minFunc,经过迭代训练出网络参数,通常见到的各个方向的边缘检测图表示的是权重矩阵对每个隐藏层激活值的特征,当输入值为对应特征值时,每个激活值会有最大响应,同时的其余隐藏节点处于抑制状态。所以只需要把W1矩阵每一行的64个向量还原成8*8的图片patch,也就是特征值了,每个隐藏层对应一个,总共100个。结果如下图。
接下来我们验证一下隐藏层对应的输出是否满足激活、抑制的要求,将上述输入值用参数矩阵传导到隐藏层,也就是\(\ W1*W1'\\).可见,每个输入对应的隐藏层只有一个像素是白色,表示接近1,其余是暗色调接近0,满足了稀疏性要求,而且激活的像素位置是顺序排列的。
继续改变不同的输入层单元个数,隐藏层单元个数,可以得到更多有意思的结果!
- UFLDL深度学习笔记 (一)反向传播与稀疏自编码
- 深度学习入门教程UFLDL学习实验笔记二:使用向量化对MNIST数据集做稀疏自编码
- UFLDL深度学习笔记 (七)拓扑稀疏编码与矩阵化
- 深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器
- 深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器
- UFLDL深度学习笔记 (五)自编码线性解码器
- 深度学习入门教程UFLDL学习实验笔记三:主成分分析PCA与白化whitening
- 【Java学习笔记】基础知识学习1【基本输出,数据类型,基础运算符号】
- MYSQL基本知识 学习笔记 1
- 零基础深度学习笔记4——Win7-Tensorflow创建基本的数据流图
- 《Unix Shell编程》第二章学习笔记--熟悉unix系统的基本知识(含思维导图)
- JavaScript学习笔记(九) 函数的基本知识和专业术语
- MPEG4 & H.264学习笔记之二 ------ 视频编码基本概念及时域模型
- 学习《汇编语言》笔记之一——基本知识
- BizTalk Server – 基本知识学习笔记(1)
- 无监督学习特征--稀疏编码、深度学习、ICA部分代表文献
- UFLDL 教程学习笔记(三)自编码与稀疏性
- python学习笔记之python基本知识
- ToF相机学习笔记之基本知识
- Web入门_朽木|学习笔记之第一章-数据库基本知识(1.1-1.7)