C++从零实现深度神经网络之六——实战手写数字识别(sigmoid和tanh)
2016-12-19 15:06
946 查看
本文由@星沉阁冰不语出品,转载请注明作者和出处。文章链接:http://blog.csdn.net/xingchenbingbuyu/article/details/53736154微博:http://weibo.com/xingchenbing
之前的五篇博客讲述的内容应该覆盖了如何编写神经网络的大部分内容,在经过之前的一系列努力之后,终于可以开始实战了。试试写出来的神经网络怎么样吧。
一、数据准备
有人说MNIST手写数字识别是机器学习领域的Hello World,所以我这一次也是从手写字体识别开始。我是从Kaggle找的手写数字识别的数据集。数据已经被保存为csv格式,相对比较方便读取。
数据集包含了数字0-9是个数字的灰度图。但是这个灰度图是展开过的。展开之前都是28x28的图像,展开后成为1x784的一行。csv文件中,每一行有785个元素,第一个元素是数字标签,后面的784个元素分别排列着展开后的184个像素。看起来像下面这样:
也许你已经看到了第一列0-9的标签,但是会疑惑为啥像素值全是0,那是因为这里能显示出来的,甚至不足28x28图像的一行。而数字一般应该在图像中心位置,所以边缘位置当然是啥也没有,往后滑动就能看到非零像素值了。像下面这样:
这里需要注意到的是,像素值的范围是0-255。一般在数据预处理阶段都会归一化,全部除以255,把值转换到0-1之间。
csv文件中包含42000个样本,这么多样本,对于我六年前买的4000元级别的破笔记本来说,单单是读取一次都得半天,更不要提拿这么多样本去迭代训练了,简直是噩梦(兼论一个苦逼的学生几年能挣到换电脑的钱!)所以我只是提取了前1000个样本,然后把归一化后的样本和标签都保存到一个xml文件中。在前面的一篇博客中已经提到了输入输出的组织形式,偷懒直接复制了:
“既然说到了输出的组织方式,那就顺便也提一句输入的组织方式。生成神经网络的时候,每一层都是用一个单列矩阵来表示的。显然第一层输入层就是一个单列矩阵。所以在对数据进行预处理的过程中,我就是把输入样本和标签一列一列地排列起来,作为矩阵存储。标签矩阵的第一列即是第一列样本的标签。以此类推。”
“把输出层设置为一个单列十行的矩阵,标签是几就把第几行的元素设置为1,其余都设为0。由于编程中一般都是从0开始作为第一位的,所以位置与0-9的数字正好一一对应。我们到时候只需要找到输出最大值所在的位置,也就知道了输出是几。”这里只是重复一下,这一部分的代码在csv2xml.cpp中:
在代码中Mat digit的作用是,检验下转换后的矩阵和标签是否对应正确这里是把col(3),也就是第四个样本从一行重新变成28x28的图像,看上面的第一张图的第一列可以看到,第四个样本的标签是4。那么它转换回来的图像时什么样呢?是下面这样:
这里也证明了为啥第一张图看起来像素全是0。边缘全黑能不是0吗?
然后在使用的时候用前面提到过的get_input_label()获取一定数目的样本和标签。
二、实战数字识别
没想到前面数据处理说了那么多。。。。
废话少说,直接说训练的过程:
1.给定每层的神经元数目,初始化神经网络和权值矩阵
2.从input_label_1000.xml文件中取前800个样本作为训练样本,后200作为测试样本。
3.这是神经网络的一些参数:训练时候的终止条件,学习率,激活函数类型
4.前800样本训练神经网络,直到满足loss小于阈值loss_threshold,停止。
5.后200样本测试神经网络,输出正确率。
6.保存训练得到的模型。
以sigmoid为激活函数的训练代码如下:
#include"../include/Net.h"
//<opencv2\opencv.hpp>
using namespace std;
using namespace cv;
using namespace liu;
int main(int argc, char *argv[])
{
//Set neuron number of every layer
vector<int> layer_neuron_num = { 784,100,10 };
// Initialise Net and weights
Net net;
net.initNet(layer_neuron_num);
net.initWeights(0, 0., 0.01);
net.initBias(Scalar(0.5));
//Get test samples and test samples
Mat input, label, test_input, test_label;
int sample_number = 800;
get_input_label("data/input_label_1000.xml", input, label, sample_number);
get_input_label("data/input_label_1000.xml", test_input, test_label, 200, 800);
//Set loss threshold,learning rate and activation function
float loss_threshold = 0.5;
net.learning_rate = 0.3;
net.output_interval = 2;
net.activation_function = "sigmoid";
//Train,and draw the loss curve(cause the last parameter is ture) and test the trained net
net.train(input, label, loss_threshold, true);
net.test(test_input, test_label);
//Save the model
net.save("models/model_sigmoid_800_200.xml");
getchar();
return 0;
}
对比前面说的六个过程,代码应该是很清晰的了。参数output_interval是间隔几次迭代输出一次,这设置为迭代两次输出一次。
如果按照上面的参数来训练,正确率是0.855:
在只有800个样本的情况下,这个正确率我认为还是可以接受的。
如果要直接使用训练好的样本,那就更加简单了:
//Get test samples and the label is 0--1
Mat test_input, test_label;
int sample_number = 200;
int start_position = 800;
get_input_label("data/input_label_1000.xml", test_input, test_label, sample_number, start_position);
//Load the trained net and test.
Net net;
net.load("models/model_sigmoid_800_200.xml");
net.test(test_input, test_label);
getchar();
return 0;
如果激活函数是tanh函数,由于tanh函数的值域是[-1,1],所以在训练的时候要把标签矩阵稍作改动,需要改动的地方如下:
//Set loss threshold,learning rate and activation function
float loss_threshold = 0.2;
net.learning_rate = 0.02;
net.output_interval = 2;
net.activation_function = "tanh";
//convert label from 0---1 to -1---1,cause tanh function range is [-1,1]
label = 2 * label - 1;
test_label = 2 * test_label - 1;
这里不光改了标签,还有几个参数也是需要改以下的,学习率比sigmoid的时候要小一个量级,效果会比较好。这样训练出来的正确率大概在0.88左右,也是可以接受的。
最后,代码和数据可以在Github下载。
之前的五篇博客讲述的内容应该覆盖了如何编写神经网络的大部分内容,在经过之前的一系列努力之后,终于可以开始实战了。试试写出来的神经网络怎么样吧。
一、数据准备
有人说MNIST手写数字识别是机器学习领域的Hello World,所以我这一次也是从手写字体识别开始。我是从Kaggle找的手写数字识别的数据集。数据已经被保存为csv格式,相对比较方便读取。
数据集包含了数字0-9是个数字的灰度图。但是这个灰度图是展开过的。展开之前都是28x28的图像,展开后成为1x784的一行。csv文件中,每一行有785个元素,第一个元素是数字标签,后面的784个元素分别排列着展开后的184个像素。看起来像下面这样:
也许你已经看到了第一列0-9的标签,但是会疑惑为啥像素值全是0,那是因为这里能显示出来的,甚至不足28x28图像的一行。而数字一般应该在图像中心位置,所以边缘位置当然是啥也没有,往后滑动就能看到非零像素值了。像下面这样:
这里需要注意到的是,像素值的范围是0-255。一般在数据预处理阶段都会归一化,全部除以255,把值转换到0-1之间。
csv文件中包含42000个样本,这么多样本,对于我六年前买的4000元级别的破笔记本来说,单单是读取一次都得半天,更不要提拿这么多样本去迭代训练了,简直是噩梦(兼论一个苦逼的学生几年能挣到换电脑的钱!)所以我只是提取了前1000个样本,然后把归一化后的样本和标签都保存到一个xml文件中。在前面的一篇博客中已经提到了输入输出的组织形式,偷懒直接复制了:
“既然说到了输出的组织方式,那就顺便也提一句输入的组织方式。生成神经网络的时候,每一层都是用一个单列矩阵来表示的。显然第一层输入层就是一个单列矩阵。所以在对数据进行预处理的过程中,我就是把输入样本和标签一列一列地排列起来,作为矩阵存储。标签矩阵的第一列即是第一列样本的标签。以此类推。”
“把输出层设置为一个单列十行的矩阵,标签是几就把第几行的元素设置为1,其余都设为0。由于编程中一般都是从0开始作为第一位的,所以位置与0-9的数字正好一一对应。我们到时候只需要找到输出最大值所在的位置,也就知道了输出是几。”这里只是重复一下,这一部分的代码在csv2xml.cpp中:
#include<opencv2\opencv.hpp> #include<iostream> using namespace std; using namespace cv; //int csv2xml() int main() { CvMLData mlData; mlData.read_csv("train.csv");//读取csv文件 Mat data = cv::Mat(mlData.get_values(), true); cout << "Data have been read successfully!" << endl; //Mat double_data; //data.convertTo(double_data, CV_64F); Mat input_ = data(Rect(1, 1, 784, data.rows - 1)).t(); Mat label_ = data(Rect(0, 1, 1, data.rows - 1)); Mat target_(10, input_.cols, CV_32F, Scalar::all(0.)); Mat digit(28, 28, CV_32FC1); Mat col_0 = input_.col(3); float label0 = label_.at<float>(3, 0); cout << label0; for (int i = 0; i < 28; i++) { for (int j = 0; j < 28; j++) { digit.at<float>(i, j) = col_0.at<float>(i * 28 + j); } } for (int i = 0; i < label_.rows; ++i) { float label_num = label_.at<float>(i, 0); //target_.at<float>(label_num, i) = 1.; target_.at<float>(label_num, i) = label_num; } Mat input_normalized(input_.size(), input_.type()); for (int i = 0; i < input_.rows; ++i) { for (int j = 0; j < input_.cols; ++j) { //if (input_.at<double>(i, j) >= 1.) //{ input_normalized.at<float>(i, j) = input_.at<float>(i, j) / 255.; //} } } string filename = "input_label_0-9.xml"; FileStorage fs(filename, FileStorage::WRITE); fs << "input" << input_normalized; fs << "target" << target_; // Write cv::Mat fs.release(); Mat input_1000 = input_normalized(Rect(0, 0, 10000, input_normalized.rows)); Mat target_1000 = target_(Rect(0, 0, 10000, target_.rows)); string filename2 = "input_label_0-9_10000.xml"; FileStorage fs2(filename2, FileStorage::WRITE); fs2 << "input" << input_1000; fs2 << "target" << target_1000; // Write cv::Mat fs2.release(); return 0; }这是我最近用ReLU的时候的代码,标签是几就把第几位设为几,其他为全设为0。最后都是找到最大值的位置即可。
在代码中Mat digit的作用是,检验下转换后的矩阵和标签是否对应正确这里是把col(3),也就是第四个样本从一行重新变成28x28的图像,看上面的第一张图的第一列可以看到,第四个样本的标签是4。那么它转换回来的图像时什么样呢?是下面这样:
这里也证明了为啥第一张图看起来像素全是0。边缘全黑能不是0吗?
然后在使用的时候用前面提到过的get_input_label()获取一定数目的样本和标签。
二、实战数字识别
没想到前面数据处理说了那么多。。。。
废话少说,直接说训练的过程:
1.给定每层的神经元数目,初始化神经网络和权值矩阵
2.从input_label_1000.xml文件中取前800个样本作为训练样本,后200作为测试样本。
3.这是神经网络的一些参数:训练时候的终止条件,学习率,激活函数类型
4.前800样本训练神经网络,直到满足loss小于阈值loss_threshold,停止。
5.后200样本测试神经网络,输出正确率。
6.保存训练得到的模型。
以sigmoid为激活函数的训练代码如下:
#include"../include/Net.h"
//<opencv2\opencv.hpp>
using namespace std;
using namespace cv;
using namespace liu;
int main(int argc, char *argv[])
{
//Set neuron number of every layer
vector<int> layer_neuron_num = { 784,100,10 };
// Initialise Net and weights
Net net;
net.initNet(layer_neuron_num);
net.initWeights(0, 0., 0.01);
net.initBias(Scalar(0.5));
//Get test samples and test samples
Mat input, label, test_input, test_label;
int sample_number = 800;
get_input_label("data/input_label_1000.xml", input, label, sample_number);
get_input_label("data/input_label_1000.xml", test_input, test_label, 200, 800);
//Set loss threshold,learning rate and activation function
float loss_threshold = 0.5;
net.learning_rate = 0.3;
net.output_interval = 2;
net.activation_function = "sigmoid";
//Train,and draw the loss curve(cause the last parameter is ture) and test the trained net
net.train(input, label, loss_threshold, true);
net.test(test_input, test_label);
//Save the model
net.save("models/model_sigmoid_800_200.xml");
getchar();
return 0;
}
对比前面说的六个过程,代码应该是很清晰的了。参数output_interval是间隔几次迭代输出一次,这设置为迭代两次输出一次。
如果按照上面的参数来训练,正确率是0.855:
在只有800个样本的情况下,这个正确率我认为还是可以接受的。
如果要直接使用训练好的样本,那就更加简单了:
//Get test samples and the label is 0--1
Mat test_input, test_label;
int sample_number = 200;
int start_position = 800;
get_input_label("data/input_label_1000.xml", test_input, test_label, sample_number, start_position);
//Load the trained net and test.
Net net;
net.load("models/model_sigmoid_800_200.xml");
net.test(test_input, test_label);
getchar();
return 0;
如果激活函数是tanh函数,由于tanh函数的值域是[-1,1],所以在训练的时候要把标签矩阵稍作改动,需要改动的地方如下:
//Set loss threshold,learning rate and activation function
float loss_threshold = 0.2;
net.learning_rate = 0.02;
net.output_interval = 2;
net.activation_function = "tanh";
//convert label from 0---1 to -1---1,cause tanh function range is [-1,1]
label = 2 * label - 1;
test_label = 2 * test_label - 1;
这里不光改了标签,还有几个参数也是需要改以下的,学习率比sigmoid的时候要小一个量级,效果会比较好。这样训练出来的正确率大概在0.88左右,也是可以接受的。
最后,代码和数据可以在Github下载。
相关文章推荐
- 深度学习与神经网络实战:快速构建一个基于神经网络的手写数字识别系统
- Python实现深度学习之-神经网络识别手写数字(更新中,更新日期:2017-07-12)
- 深度学习-传统神经网络使用TensorFlow框架实现MNIST手写数字识别
- 神经网络与深度学习 1.6 使用Python实现基于梯度下降算法的神经网络和MNIST数据集的手写数字分类程序
- 机器学习笔记:tensorflow实现卷积神经网络经典案例--识别手写数字
- 深度学习入门实践_十行搭建手写数字识别神经网络
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- PK/NN/*/SVM:实现手写数字识别(数据集50000张图片)比较3种算法神经网络、灰度平均值、SVM各自的准确率—Jason niu
- Kaggle神经网络实战:CNN实现手写数字辨识
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- 神经网络实战示例一:神经网络中的参数调试研究——手写数字识别综合示例研究2
- 基于神经网络和遗传算法的【手写数字识别】机器人的实现
- 《神经网络与深度学习》第一章 使用神经网络来识别手写数字(三)- 用Python代码实现
- CNN:人工智能之神经网络算法进阶优化,六种不同优化算法实现手写数字识别逐步提高,应用案例自动驾驶之捕捉并识别周围车牌号—Jason niu
- 神经网络与深度学习笔记——第1章 使用神经网络识别手写数字
- 逻辑回归softmax神经网络实现手写数字识别(cs)
- NN:神经网络实现识别手写的10个数字—Jason niu
- 神经网络与深度学习 使用Python实现基于梯度下降算法的神经网络和自制仿MNIST数据集的手写数字分类可视化程序 web版本
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别