Tensorflow 卷积的梯度反向传播过程
2020-02-13 11:45
806 查看
一. valid卷积的梯度
我们分两种不同的情况讨论valid卷积的梯度:第一种情况,在已知卷积核的情况下,对未知张量求导(即对张量中每一个变量求导);第二种情况,在已知张量的情况下,对未知卷积核求导(即对卷积核中每一个变量求导)
1.已知卷积核,对未知张量求导
我们用一个简单的例子理解valid卷积的梯度反向传播。假设有一个3x3的未知张量x,以及已知的2x2的卷积核K
Tensorflow提供函数tf.nn.conv2d_backprop_input实现了valid卷积中对未知变量的求导,以上示例对应的代码如下:
import tensorflow as tf # 卷积核 kernel=tf.constant( [ [[[3]],[[4]]], [[[5]],[[6]]] ] ,tf.float32 ) # 某一函数针对sigma的导数 out=tf.constant( [ [ [[-1],[1]], [[2],[-2]] ] ] ,tf.float32 ) # 针对未知变量的导数的方向计算 inputValue=tf.nn.conv2d_backprop_input((1,3,3,1),kernel,out,[1,1,1,1],'VALID') session=tf.Session() print(session.run(inputValue)) [[[[ -3.] [ -1.] [ 4.]] [[ 1.] [ 1.] [ -2.]] [[ 10.] [ 2.] [-12.]]]]
2.已知输入张量,对未知卷积核求导
假设已知3行3列的张量x和未知的2行2列的卷积核K
Tensorflow提供函数tf.nn.conv2d_backprop_filter实现valid卷积对未知卷积核的求导,以上示例的代码如下:
import tensorflow as tf # 输入张量 x=tf.constant( [ [ [[1],[2],[3]], [[4],[5],[6]], [[7],[8],[9]] ] ] ,tf.float32 ) # 某一个函数F对sigma的导数 partial_sigma=tf.constant( [ [ [[-1],[-2]], [[-3],[-4]] ] ] ,tf.float32 ) # 某一个函数F对卷积核k的导数 partial_sigma_k=tf.nn.conv2d_backprop_filter(x,(2,2,1,1),partial_sigma,[1,1,1,1],'VALID') session=tf.Session() print(session.run(partial_sigma_k)) [[[[-37.]] [[-47.]]] [[[-67.]] [[-77.]]]]
二. same卷积的梯度
1.已知卷积核,对输入张量求导
假设有3行3列的已知张量x,2行2列的未知卷积核K
import tensorflow as tf # 卷积核 kernel=tf.constant( [ [[[3]],[[4]]], [[[5]],[[6]]] ] ,tf.float32 ) # 某一函数针对sigma的导数 partial_sigma=tf.constant( [ [ [[-1],[1],[3]], [[2],[-2],[-4]], [[-3],[4],[1]] ] ] ,tf.float32 ) # 针对未知变量的导数的方向计算 partial_x=tf.nn.conv2d_backprop_input((1,3,3,1),kernel,partial_sigma,[1,1,1,1],'SAME') session=tf.Session() print(session.run(inputValue)) [[[[ -3.] [ -1.] [ 4.]] [[ 1.] [ 1.] [ -2.]] [[ 10.] [ 2.] [-12.]]]]
2.已知输入张量,对未知卷积核求导
假设已知3行3列的张量x和未知的2行2列的卷积核K
import tensorflow as tf # 卷积核 x=tf.constant( [ [ [[1],[2],[3]], [[4],[5],[6]], [[7],[8],[9]] ] ] ,tf.float32 ) # 某一函数针对sigma的导数 partial_sigma=tf.constant( [ [ [[-1],[-2],[1]], [[-3],[-4],[2]], [[-2],[1],[3]] ] ] ,tf.float32 ) # 针对未知变量的导数的方向计算 partial_sigma_k=tf.nn.conv2d_backprop_filter(x,(2,2,1,1),partial_sigma,[1,1,1,1],'SAME') session=tf.Session() print(session.run(partial_sigma_k)) [[[[ -1.]] [[-54.]]] [[[-43.]] [[-77.]]]]
以上这篇Tensorflow 卷积的梯度反向传播过程就是小编分享给大家的全部内容了,希望能给大家一个参考
您可能感兴趣的文章:
相关文章推荐
- CNN中的梯度的求法和反向传播过程
- 三、梯度下降与反向传播(含过程推导及证明)
- BP神经网络,BP推导过程,反向传播算法,误差反向传播,梯度下降,权值阈值更新推导,隐含层权重更新公式
- 卷积网络反向传播过程
- Tensorflow笔记:反向传播参数更新推导过程
- tensorflow 实现自定义梯度反向传播代码
- 实现属于自己的TensorFlow(二) - 梯度计算与反向传播
- 转:CNN的反向传播过程的推导(池化层、卷积层)
- 只用TensorFlow的反向传播实现的RNN
- TensorFlow 深度学习框架 (2)-- 反向传播优化神经网络
- [机器学习] UFLDL笔记 - Convolutional Neural Network - 反向传播与梯度计算
- 梯度下降法与反向传播
- 【深度学习】梯度下降和反向传播
- 感知机相关;利用tensorflow等工具定义简单的几层网络(激活函数sigmoid),递归使用链式法则来实现反向传播。
- TensorFlow 深度学习框架 (2)-- 反向传播优化神经网络
- LSTM反向传播过程记录
- TensorFlow实战系列3--实现反向传播
- AI大事件 | Geoffrey Hinton决定抛弃反向传播_预期策略梯度算法
- tensorflow进阶篇-5(反向传播2)
- 【深度学习技术】python 反向传播求梯度