Python开发tensorflow(多层神经网络)实现mnist手写识别代码详解
前言
在Python开发中tensorflow可以说是整个开发体系中的核心,而其中的mnist在整个tensorflow体系中使用的次数也是很多,在本文将详细讲解如何用tensorflow可以去识别mnist的手写代码。
正文
标题党其实也不多,一个输入层,三个隐藏层,一个输出层。老样子先上代码,导入mnist的路径很长,现在还记不住。 import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
import numpy as np
import matplotlib.pyplot as plt
from time import time
mnist = input_data.read_data_sets(“data/”,one_hot = True)
#导入Tensorflwo和mnist数据集等 常用库 设置输入层,X为样本数据,y是标签值,X 784是因为2828,None是因为不知道需要用多少样本,Y 10是因为 0~9的预测输出,None理由同上。 x = tf.placeholder(tf.float32,[None,784],name=‘X’)
y = tf.placeholder(tf.float32,[None,10],name=‘Y’) 3层这样写有点啰嗦 下一版有个用函数实现的比这个好。
tf.truncated_normal([784,H1_NN],stddev = 0.1)以截断正态分布的随机初始化,数学原理不解释(budong),反正大小控制在stddev里面 方便后面训练。 H1_NN = 256 #第一层神经元节点数
H2_NN = 64 #第二层神经元节点数
H3_NN = 32 #第三层神经元节点数
#第一层
W1 = tf.Variable(tf.truncated_normal([784,H1_NN],stddev = 0.1))
b1 = tf.Variable(tf.zeros(H1_NN))
#第二层
W2 = tf.Variable(tf.truncated_normal([H1_NN,H2_NN],stddev = 0.1))
b2 = tf.Variable(tf.zeros(H2_NN))
#第三层
W3 = tf.Variable(tf.truncated_normal([H2_NN,H3_NN],stddev = 0.1))
b3 = tf.Variable(tf.zeros(H3_NN))
#输出层
W4 = tf.Variable(tf.truncated_normal([H3_NN,10],stddev = 0.1))
b4 = tf.Variable(tf.zeros(10))
输出 不多讲了 前三层使用了Relu,最后输出因为是10分类所有使用了softmax。
(今天写的时候记错了pred输出使用了loss函数的softmax计算导致程序报错,先记下来) Y1 = tf.nn.relu(tf.matmul(x,W1)+b1) #使用Relu当作激活函数
Y2 = tf.nn.relu(tf.matmul(Y1,W2)+b2)#使用Relu当作激活函数
Y3 = tf.nn.relu(tf.matmul(Y2,W3)+b3)#使用Relu当作激活函数
forward = tf.matmul(Y3,W4)+b4
pred = tf.nn.softmax(forward)#输出层分类应用使用softmax当作激活函数
没错上面说的就是这个tf.nn.sofmax_cross_entropy_with_logits,不使用这个使用第一版的。
#损失函数使用交叉熵
loss_function = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = forward,labels = y)) 会因为log为0导致梯度爆炸 数学原理不太懂 以后补一下,会了再来填充。
loss_function = tf.reduce_mean(-tf.reduce_sum(ytf.log(pred),
reduction_indices=1)) 超参数设置啥的没啥好说,值得一提total_batch 好像是类似一个洗牌的函数。
#设置训练参数
train_epochs = 50
batch_size = 50
total_batch = int(mnist.train.num_examples/batch_size) #随机抽取样本
learning_rate = 0.01
display_step = 1
优化器,(反向传播?)不确定 反正用来调整最优的w和b。
#优化器
opimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss_function)
利用argmax对比预测结果和标签值,方便后面统计准确率。
#定义准确率
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(pred,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
开始训练,后面会补一个保存和调用模型的代码不然以后模型大了 不保存都要程序跑一次才能用太费时间,这里print我把用format的删了 因为不太会用。
#开始训练
sess = tf.Session()
init = tf.global_variables_initializer()
startTime = time()
sess.run(init)
for epochs in range(train_epochs):
for batch in range(total_batch):
xs,ys = mnist.train.next_batch(batch_size)#读取批次数据
sess.run(opimizer,feed_dict={x:xs,y:ys})#执行批次数据训练
#total_batch个批次训练完成后,使用验证数据计算误差与准确率 loss,acc = sess.run([loss_function,accuracy], feed_dict={ x:mnist.validation.images, y:mnist.validation.labels}) #输出训练情况 if(epochs+1) % display_step == 0: epochs += 1 print("Train Epoch:",epochs, "Loss=",loss,"Accuracy=",acc)
duration = time()-startTime
print(“Trian Finshed takes:”,"{:.2f}".format(duration))#显示预测耗时
最后50轮训练后准确率是0.97左右 已经收敛了,使用测试集评估模型。
#评估模型
accu_test = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
print(“model accuracy:”,accu_test)
准确率0.9714,还行到这里就结束了,最后把完整代码放上来 方便以后看。
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
import numpy as np
import matplotlib.pyplot as plt
from time import time
mnist = input_data.read_data_sets(“data/”,one_hot = True)
#导入Tensorflwo和mnist数据集等 常用库
x = tf.placeholder(tf.float32,[None,784],name=‘X’)
y = tf.placeholder(tf.float32,[None,10],name=‘Y’)
H1_NN = 256 #第一层神经元节点数
H2_NN = 64 #第二层神经元节点数
H3_NN = 32 #第三层神经元节点数
#第一层
W1 = tf.Variable(tf.truncated_normal([784,H1_NN],stddev = 0.1))
b1 = tf.Variable(tf.zeros(H1_NN))
#第二层
W2 = tf.Variable(tf.truncated_normal([H1_NN,H2_NN],stddev = 0.1))
b2 = tf.Variable(tf.zeros(H2_NN))
#第三层
W3 = tf.Variable(tf.truncated_normal([H2_NN,H3_NN],stddev = 0.1))
b3 = tf.Variable(tf.zeros(H3_NN))
#输出层
W4 = tf.Variable(tf.truncated_normal([H3_NN,10],stddev = 0.1))
b4 = tf.Variable(tf.zeros(10))
#计算结果
Y1 = tf.nn.relu(tf.matmul(x,W1)+b1) #使用Relu当作激活函数
Y2 = tf.nn.relu(tf.matmul(Y1,W2)+b2)#使用Relu当作激活函数
Y3 = tf.nn.relu(tf.matmul(Y2,W3)+b3)#使用Relu当作激活函数
forward = tf.matmul(Y3,W4)+b4
pred = tf.nn.softmax(forward)#输出层分类应用使用softmax当作激活函数
#损失函数使用交叉熵
loss_function = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = forward,labels = y))
#设置训练参数
train_epochs = 50
batch_size = 50
total_batch = int(mnist.train.num_examples/batch_size) #随机抽取样本
learning_rate = 0.01
display_step = 1
#优化器
opimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss_function)
#定义准确率
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(pred,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
#开始训练
sess = tf.Session()
init = tf.global_variables_initializer()
startTime = time()
sess.run(init)
for epochs in range(train_epochs):
for batch in range(total_batch):
xs,ys = mnist.train.next_batch(batch_size)#读取批次数据
sess.run(opimizer,feed_dict={x:xs,y:ys})#执行批次数据训练
#total_batch个批次训练完成后,使用验证数据计算误差与准确率 loss,acc = sess.run([loss_function,accuracy], feed_dict={ x:mnist.validation.images, y:mnist.validation.labels}) #输出训练情况 if(epochs+1) % display_step == 0: epochs += 1 print("Train Epoch:",epochs, "Loss=",loss,"Accuracy=",acc)
duration = time()-startTime
print(“Trian Finshed takes:”,"{:.2f}".format(duration))#显示预测耗时
#评估模型
accu_test = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
print(“model accuracy:”,accu_test)全部代码
结尾
通过本文的详细讲解各位小伙伴们对于tensorflow及如何用tensorflow去识别mnist的手写代码,有了一个基本的了解,想要达到学以致用就要靠小伙们的自己努力了。
- Python神经网络代码识别手写字的实现流程(一):加载mnist数据
- tensorflow 学习笔记7 普通神经网络实现mnist手写识别
- Deep Learning-TensorFlow (1) CNN卷积神经网络_MNIST手写数字识别代码实现详解
- python Tensorflow三层全连接神经网络实现手写数字识别
- 神经网络学习(七)MNIST手写字识别 --- Python实现
- 《神经网络与深度学习》第一章 使用神经网络来识别手写数字(三)- 用Python代码实现
- 利用tensorflow一步一步实现基于MNIST 数据集进行手写数字识别的神经网络,逻辑回归
- 深度学习-传统神经网络使用TensorFlow框架实现MNIST手写数字识别
- tensorflow 学习笔记12 循环神经网络RNN LSTM结构实现MNIST手写识别
- 【深度学习】笔记2_caffe自带的第一个例子,Mnist手写数字识别代码,过程,网络详解
- 详解python实现识别手写MNIST数字集的程序
- python在线神经网络实现手写字符识别系统
- 神经网络与深度学习 使用Python实现基于梯度下降算法的神经网络和自制仿MNIST数据集的手写数字分类可视化程序 web版本
- Deep Learning-TensorFlow (1) CNN卷积神经网络_MNIST手写数字识别代码实现
- 使用TensorFlow训练神经网络识别MNIST数据代码
- 如何用Tensorflow实现增强版本的Mnist手写识别网络模型
- 识别MNIST数据集:用Python实现神经网络
- 神经网络_多层感知机MLP_以mnist为例(tensorflow和keras实现)
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- keras:1)初体验-MLP神经网络实现MNIST手写识别