TensorFlow tf.nn.conv2d
2017-07-06 15:33
567 查看
在MNIST例程的卷积模型中,最关键的就是tf.nn.conv2d和tf.nn.max_pool两个函数,
先把引用这两个函数的代码片贴出来:
追踪tf.nn.conv2d这个函数至gen_nn_ops.py中:
可以看到tf.nn.conv2d的第一个参数x表示输入数据,是一个4-D的tensor [bath,in_height,in_width,in_channels](四个维度分别表示一批训练的图片数量,图片高度和宽度及图片的通道数(一般灰度图像是1,rgb图像是3));第二个参数 W表示使用的卷积核,一般是方阵;第三个参数是 strides=[1, strides, strides, 1], 表示每个维度做卷积的步幅;第四个参数是padding,有两个值可选“SAME”和“VALID”,若padding=’SAME’表示在做卷积前需要对输入图像进行0填充使,卷积后的图像与输入图像有相同的维度。若padding=’VALID’表示做卷积前不对输入图像进行0填充,卷积后的图像与输入图像维度不同。
关于卷积后图像的维度,有下面的结论:
设输入图像是i*i ⇔in_height,in_width
卷积核是k*k⇔shape(W)
步幅是s⇔strides
当padding=’VALID’时,输出图像为\floor(i−ks)+1
当padding=’SAME’时,输出图像为i*i(s=1)
tf.nn.max_pool有4个参数,x表示输入图像; ksize=[1, k, k, 1]表示卷积核的尺寸, strides=[1, k, k, 1]表示歩幅,padding=’SAME’与上面相同
池化后的输出图像结果与上面卷积一样\floor(i−ks)+1
更多关于卷积、池化后的输出图像相关理论可以参考:https://arxiv.org/pdf/1603.07285v1.pdf
后来发现有大神对这篇文档的部分解读,是中文的,感谢大神的分享:http://blog.csdn.net/kekong0713/article/details/68941498
先把引用这两个函数的代码片贴出来:
def conv2d(x, W, b, strides=1): # Conv2D wrapper, with bias and relu activation x = tf.nn.conv2d(x, W, strides=[1, strides, strides, 1], padding='SAME') x = tf.nn.bias_add(x, b) return tf.nn.relu(x) def maxpool2d(x, k=2): # MaxPool2D wrapper return tf.nn.max_pool(x, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME')
追踪tf.nn.conv2d这个函数至gen_nn_ops.py中:
def conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None,data_format=None, name=None): r"""Computes a 2-D convolution given 4-D `input` and `filter` tensors. Given an input tensor of shape `[batch, in_height, in_width, in_channels]` and a filter / kernel tensor of shape `[filter_height, filter_width, in_channels, out_channels]`, this op performs the following: 1. Flattens the filter to a 2-D matrix with shape `[filter_height * filter_width * in_channels, output_channels]`. 2. Extracts image patches from the input tensor to form a *virtual* tensor of shape `[batch, out_height, out_width, filter_height * filter_width * in_channels]`. 3. For each patch, right-multiplies the filter matrix and the image patch vector. In detail, with the default NHWC format, output[b, i, j, k] = sum_{di, dj, q} input[b, strides[1] * i + di, strides[2] * j + dj, q] * filter[di, dj, q, k] Must have `strides[0] = strides[3] = 1`. For the most common case of the same horizontal and vertices strides, `strides = [1, stride, stride, 1]`. Args: input: A `Tensor`. Must be one of the following types: `float32`, `float64`. filter: A `Tensor`. Must have the same type as `input`. strides: A list of `ints`. 1-D of length 4. The stride of the sliding window for each dimension of `input`. Must be in the same order as the dimension specified with format. padding: A `string` from: `"SAME", "VALID"`. The type of padding algorithm to use. use_cudnn_on_gpu: An optional `bool`. Defaults to `True`. data_format: An optional `string` from: `"NHWC", "NCHW"`. Defaults to `"NHWC"`. Specify the data format of the input and output data. With the default format "NHWC", the data is stored in the order of: [batch, in_height, in_width, in_channels]. Alternatively, the format could be "NCHW", the data storage order of: [batch, in_channels, in_height, in_width]. name: A name for the operation (optional). Returns: A `Tensor`. Has the same type as `input`. """
可以看到tf.nn.conv2d的第一个参数x表示输入数据,是一个4-D的tensor [bath,in_height,in_width,in_channels](四个维度分别表示一批训练的图片数量,图片高度和宽度及图片的通道数(一般灰度图像是1,rgb图像是3));第二个参数 W表示使用的卷积核,一般是方阵;第三个参数是 strides=[1, strides, strides, 1], 表示每个维度做卷积的步幅;第四个参数是padding,有两个值可选“SAME”和“VALID”,若padding=’SAME’表示在做卷积前需要对输入图像进行0填充使,卷积后的图像与输入图像有相同的维度。若padding=’VALID’表示做卷积前不对输入图像进行0填充,卷积后的图像与输入图像维度不同。
关于卷积后图像的维度,有下面的结论:
设输入图像是i*i ⇔in_height,in_width
卷积核是k*k⇔shape(W)
步幅是s⇔strides
当padding=’VALID’时,输出图像为\floor(i−ks)+1
当padding=’SAME’时,输出图像为i*i(s=1)
tf.nn.max_pool有4个参数,x表示输入图像; ksize=[1, k, k, 1]表示卷积核的尺寸, strides=[1, k, k, 1]表示歩幅,padding=’SAME’与上面相同
池化后的输出图像结果与上面卷积一样\floor(i−ks)+1
更多关于卷积、池化后的输出图像相关理论可以参考:https://arxiv.org/pdf/1603.07285v1.pdf
后来发现有大神对这篇文档的部分解读,是中文的,感谢大神的分享:http://blog.csdn.net/kekong0713/article/details/68941498
相关文章推荐
- convolution in tensorflow (tf.nn.conv)
- 【Tensorflow】tf.nn.depthwise_conv2d如何实现深度卷积?
- 池化操作 tensorflow tf.nn.max_pool
- tf.nn.atrous_conv2d 实例
- tf.nn.conv2d理解
- 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
- Tensorflow tf.nn.in_top_k Error targets[0] is out of range
- tf.nn.conv2d 实例
- 【TensorFlow】tf.nn.conv2d实现卷积
- 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积?
- tf.nn.conv2d实现卷积的过程
- tf.nn.separable_conv2d 用法
- 【Tensorflow】tf.nn.separable_conv2d如何实现深度可分卷积?
- tf.nn.atrous_conv2d(value, filters, rate, padding, name=None) {#atrous_conv2d}
- TensorFlow学习---tf.nn.conv2d实现卷积操作
- tf.nn.embedding_lookup TensorFlow embedding_lookup 函数最简单实例
- tf.nn.conv2d()
- tensorflow tf.nn.embedding_lookup(embeddings, train_inputs)解释
- tf.nn.conv2d用法简介
- 【TensorFlow】tf.nn.conv2d如何实现卷积