【神经网络】5:BP神经网络+sklearn数据集做数字识别
2018-01-27 18:01
232 查看
前言:上一篇《人工智能5:神经网络进阶,BP神经网络+TensorFlow做图片识别》程序跑的太慢了,而且占内存很大,所以再介绍一篇BP神经网络+sklearn做图片识别的程序。大家仅供参考。
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
重要提示:安装sklearn前,要先安装numpy和scipy这两个库
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
这个数据集是sklearn里面带的数据集,图片大小是8*8的,将数据项存入X,将标签项存入Y。这个不要额外下载,声明就可以使用。
数据为什么要归一化处理?当数据集的数值过大,即便乘以较小的权重后仍然还是一个很大的数时,当代入sigmoid激活函数中,激活函数的输出就趋近于1,不利于学习
怎么操作使数据归一化?原始数据集中每一个数据先减去最小的那个数,将得到的新数据集再除以最大的那个数既可(大家可以举个例子:2,7,5,9。试一试就知道)
sklearn中直接一条语句就可以切分数据了:将数据项、标签项切分出来,3/4做训练集,剩下的1/4做测试集。
为什么要标签二值化?因为我们存入的标签是0,1,2,,,9这十个数,而计算机的识别都是0-1字符串,所以满足计算机识别分类,就需要进行标签二值化。
怎么标签二值化?举例最好说明:用长度为10的字符串表示如下:
0 –>1000000000;3 –>0001000000;8 –>0000000010
可以查看sklearn数据集里包含多少个数据,也可以通过改变索引,打印出不同的图片(由于图片尺寸是8*8的,图像比较模糊)
这个运行速度要比TensorFlow快上许多,识别的成功率也高,主要因为数据集相差很大——数据集个数(tf是60000+,sklearn是1900+);数据集图片的大小(tf是28*28,sklearn是8*8)
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
重要提示:安装sklearn前,要先安装numpy和scipy这两个库
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
–—-—-—-—-—-—-—-—-—-—-—-—–—-—-—-—-—-—-—-——-—-—-–
1、载入数据集
from sklearn.datasets import load_digits #载入数据:8*8的数据集 digits = load_digits() X = digits.data Y = digits.target
这个数据集是sklearn里面带的数据集,图片大小是8*8的,将数据项存入X,将标签项存入Y。这个不要额外下载,声明就可以使用。
2、数据归一化处理
#输入数据归一化 X -= X.min() X /= X.max()
数据为什么要归一化处理?当数据集的数值过大,即便乘以较小的权重后仍然还是一个很大的数时,当代入sigmoid激活函数中,激活函数的输出就趋近于1,不利于学习
怎么操作使数据归一化?原始数据集中每一个数据先减去最小的那个数,将得到的新数据集再除以最大的那个数既可(大家可以举个例子:2,7,5,9。试一试就知道)
3、切分数据,与标签二值化
#sklearn切分数据 X_train,X_test,y_train,y_test = train_test_split(X,Y) #标签二值化:将原始标签(十进制)转为新标签(二进制) labels_train = LabelBinarizer().fit_transform(y_train) labels_test = LabelBinarizer().fit_transform(y_test)
sklearn中直接一条语句就可以切分数据了:将数据项、标签项切分出来,3/4做训练集,剩下的1/4做测试集。
为什么要标签二值化?因为我们存入的标签是0,1,2,,,9这十个数,而计算机的识别都是0-1字符串,所以满足计算机识别分类,就需要进行标签二值化。
怎么标签二值化?举例最好说明:用长度为10的字符串表示如下:
0 –>1000000000;3 –>0001000000;8 –>0000000010
4、打印输出图片
from sklearn.datasets import load_digits import pylab as pl #载入数据集 digits = load_digits() print(digits.data.shape) #灰度化图片 pl.gray() pl.matshow(digits.images[0]) pl.show()
可以查看sklearn数据集里包含多少个数据,也可以通过改变索引,打印出不同的图片(由于图片尺寸是8*8的,图像比较模糊)
5、源码与效果展示
# -*- coding:utf-8 -*-
# -*- author:zzZ_CMing
# -*- 2018/01/24;9:09
# -*- python3.5
import numpy as np
from sklearn.datasets import load_digits
from sklearn.preprocessing import LabelBinarizer #标签二值化
from sklearn.model_selection import train_test_split #切割数据,交叉验证法
def sigmoid(x):
return 1/(1+np.exp(-x))
def dsigmoid(x):
return x*(1-x)
class NeuralNetwork:
def __init__(self,layers):#(64,100,10)
#权重的初始化,范围-1到1:+1的一列是偏置值
self.V = np.random.random((layers[0] + 1, layers[1]+1))*2 - 1
self.W = np.random.random((layers[1] + 1, layers[2])) * 2 - 1
def train(self,X,y,lr=0.11,epochs=10000):
#添加偏置值:最后一列全是1
temp = np.ones([X.shape[0],X.shape[1]+1])
temp[:,0:-1] = X
X = temp
for n in range(epochs+1):
#在训练集中随机选取一行(一个数据):randint()在范围内随机生成一个int类型
i = np.random.randint(X.shape[0])
x = [X[i]]
#转为二维数据:由一维一行转为二维一行
x = np.atleast_2d(x)
# L1:输入层传递给隐藏层的值;输入层64个节点,隐藏层100个节点
# L2:隐藏层传递到输出层的值;输出层10个节点
L1 = sigmoid(np.dot(x, self.V))
L2 = sigmoid(np.dot(L1, self.W))
# L2_delta:输出层对隐藏层的误差改变量
# L1_delta:隐藏层对输入层的误差改变量
L2_delta = (y[i] - L2) * dsigmoid(L2)
L1_delta = L2_delta.dot(self.W.T) * dsigmoid(L1)
# 计算改变后的新权重
self.W += lr * L1.T.dot(L2_delta)
self.V += lr * x.T.dot(L1_delta)
#每训练1000次输出一次准确率
if n%1000 == 0:
predictions = []
for j in range(X_test.shape[0]):
#获取预测结果:返回与十个标签值逼近的距离,数值最大的选为本次的预测值
o = self.predict(X_test[j])
#将最大的数值所对应的标签返回
predictions.append(np.argmax(o))
#np.equal():相同返回true,不同返回false
accuracy = np.mean(np.equal(predictions,y_test))
print('迭代次数:',n,'准确率:',accuracy)
def predict(self,x):
# 添加偏置值:最后一列全是1
temp = np.ones([x.shape[0] + 1])
temp[0:-1] = x
x = temp
# 转为二维数据:由一维一行转为二维一行
x = np.atleast_2d(x)
# L1:输入层传递给隐藏层的值;输入层64个节点,隐藏层100个节点
# L2:隐藏层传递到输出层的值;输出层10个节点
L1 = sigmoid(np.dot(x, self.V))
L2 = sigmoid(np.dot(L1, self.W))
return L2
#载入数据:8*8的数据集
digits = load_digits()
X = digits.data
Y = digits.target
#输入数据归一化:当数据集数值过大,乘以较小的权重后还是很大的数,代入sigmoid激活函数就趋近于1,不利于学习
X -= X.min()
X /= X.max()
NN = NeuralNetwork([64,100,10])
#sklearn切分数据 X_train,X_test,y_train,y_test = train_test_split(X,Y) #标签二值化:将原始标签(十进制)转为新标签(二进制) labels_train = LabelBinarizer().fit_transform(y_train) labels_test = LabelBinarizer().fit_transform(y_test)
print('开始训练')
NN.train(X_train,labels_train,epochs=20000)
print('训练结束')
这个运行速度要比TensorFlow快上许多,识别的成功率也高,主要因为数据集相差很大——数据集个数(tf是60000+,sklearn是1900+);数据集图片的大小(tf是28*28,sklearn是8*8)
相关文章推荐
- 利用tensorflow一步一步实现基于MNIST 数据集进行手写数字识别的神经网络,逻辑回归
- PK/NN/*/SVM:实现手写数字识别(数据集50000张图片)比较3种算法神经网络、灰度平均值、SVM各自的准确率—Jason niu
- 使用tensorflow利用神经网络分类识别MNIST手写数字数据集,转自随心1993
- 神经网络与机器学习(二)——识别手写数字示例
- 从0开始训练识别手写数字的神经网络
- 读书笔记-神经网络与深度学习(一)-使用神经网络识别手写数字
- 用python的numpy实现神经网络 实现 手写数字识别
- C++从零实现深度神经网络之六——实战手写数字识别(sigmoid和tanh)
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- python Tensorflow三层全连接神经网络实现手写数字识别
- 用matlab实现神经网络识别数字
- 利用神经网络识别手写数字笔记
- 第一章 用神经网络识别手写数字(第一节 感知器)
- 神经网络与深度学习 1.6 使用Python实现基于梯度下降算法的神经网络和MNIST数据集的手写数字分类程序
- Neural Network(神经网络)实例--手写数字识别
- 【神经网络学习笔记】基于离散Hopfield神经网络的数字识别
- 手把手入门神经网络系列(2)_74行代码实现手写数字识别
- 《TensorFlow学习笔记》 MINST数字识别问题-简单的神经网络实现
- 深度学习入门实践_十行搭建手写数字识别神经网络
- 《神经网络与深度学习》第一章 使用神经网络来识别手写数字(三)- 用Python代码实现