tensorflow的基本用法(七)——使用MNIST训练神经网络
2017-04-16 00:27
801 查看
文章作者:Tyan
博客:noahsnail.com | CSDN | 简书
本文主要是使用tensorflow和mnist数据集来训练神经网络。
执行结果如下:
博客:noahsnail.com | CSDN | 简书
本文主要是使用tensorflow和mnist数据集来训练神经网络。
#!/usr/bin/env python # _*_ coding: utf-8 _*_ import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 下载mnist数据 mnist = input_data.read_data_sets('MNIST_data', one_hot=True) # 定义神经网络模型的评估部分 def compute_accuracy(W, b): # 定义测试数据的placeholder x = tf.placeholder(tf.float32, [None, 784]) # 定义测试数据的真实标签的placeholder y_ = tf.placeholder(tf.float32, [None, 10]) # 定义预测值 y = tf.nn.softmax(tf.matmul(x, W) + b) # 判断预测值y和真实值y_中最大数的索引是否一致,y的值为1-10概率 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) # 计算准确率 accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) # 输入测试数据,执行准确率的计算并返回 return sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}) # 定义神经网络模型的训练部分 # 下面定义的神经网络只有一层W*x+b # 定义输入数据placeholder,不定义输入样本的数目——None,但定义每个样本的大小为784 x = tf.placeholder(tf.float32, [None, 784]) # 定义神经网络层的权重参数 W = tf.Variable(tf.zeros([784, 10])) # 定义神经网络层的偏置参数 b = tf.Variable(tf.zeros([10])) # 定义一层神经网络运算,激活函数为softmax y = tf.nn.softmax(tf.matmul(x, W) + b) # 定义训练数据真实标签的placeholder y_ = tf.placeholder(tf.float32, [None, 10]) # 定义损失函数,损失函数为交叉熵,reduction_indices表示沿着tensor的哪个纬度来求和 cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) # 定义神经网络的训练步骤,使用的是梯度下降法,学习率为0.5 train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) # 初始化所有变量 init = tf.global_variables_initializer() # 定义Session sess = tf.Session() # 执行变量的初始化 sess.run(init) # 迭代进行训练 for i in range(1000): # 取出mnist数据集中的100个数据 batch_xs, batch_ys = mnist.train.next_batch(100) # 执行训练过程并传入真实数据x, y_ sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) if i % 100 == 0: print compute_accuracy(W, b)
执行结果如下:
Extracting MNIST_data/train-images-idx3-ubyte.gz Extracting MNIST_data/train-labels-idx1-ubyte.gz Extracting MNIST_data/t10k-images-idx3-ubyte.gz Extracting MNIST_data/t10k-labels-idx1-ubyte.gz 0.4075 0.8948 0.9031 0.9074 0.9037 0.9125 0.9158 0.912 0.9181 0.9169
参考资料
https://www.youtube.com/user/MorvanZhou相关文章推荐
- tensorflow的基本用法(五)——创建神经网络并训练
- 使用TensorFlow训练神经网络识别MNIST数据代码
- 使用tensorflow利用神经网络分类识别MNIST手写数字数据集,转自随心1993
- 【TensorFlow】MNIST(使用全连接神经网络+滑动平均+正则化+指数衰减法+激活函数)
- 深度学习-传统神经网络使用TensorFlow框架实现MNIST手写数字识别
- tensorflow 神经网络基本使用
- tensorflow学习笔记四:mnist实例--用简单的神经网络来训练和测试(MNIST For ML Beginners)
- TensorFlow 入门之第一个神经网络训练 MNIST
- tensorflow学习笔记四:mnist实例--用简单的神经网络来训练和测试
- tensorflow实现最基本的神经网络 + 对比GD、SGD、batch-GD的训练方法
- tensorflow的基本用法(六)——神经网络可视化
- tensorflow实现最基本的神经网络 + 对比GD、SGD、batch-GD的训练方法
- 使用TensorFlow训练循环神经网络语言模型
- tensorflow 学习笔记(四) - mnist实例--用简单的神经网络来训练和测试
- 深度学习笔记——TensorFlow学习笔记(三)使用TensorFlow实现的神经网络进行MNIST手写体数字识别
- tensorflow的基本用法(十)——保存神经网络参数和加载神经网络参数
- 使用Tensorflow训练神经网络模型---自定义损失函数
- tensorflow学习笔记四:mnist实例--用简单的神经网络来训练和测试
- 基于MNIST数据集使用TensorFlow训练一个包含一个隐含层的全连接神经网络
- 基于MNIST数据集使用TensorFlow训练一个没有隐含层的浅层神经网络