深度学习:Logistic 回归
2017-12-01 09:03
225 查看
深度学习(Deep Learning)是机器学习(Machine Learning)的一大分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。
逻辑回归(Logistic Regression,也译作”对数几率回归“)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。
例如:为了训练一个猫识别器,输入一张图片表示为特征向量x,并预测图片是否为猫,输出y为1(是)或0(不是)。
我们称图片为非结构化数据,但在计算机中,一张图片以RGB方式编码时,它是以Red、Green、Blue三基色组成一个矩阵的方式进行储存的,这三个矩阵的大小和图片的大小相同 ,如图中每张猫图大小为64 pixels*64 pixels的,那么三个矩阵中每个矩阵的大小即为64*64。
单元格中代表的像素值将用来组成一个N维的特征向量。在模式识别(Pattern Recognition)和机器学习中,一个特征向量用来表示一个对象。这个问题中,这个对象为猫或者非猫。
为了组成一个特征向量x,将每一种颜色的像素值进行拆分重塑,最终形成的特征向量x的维数为nx = 64*64*3 = 12288。
一个训练样本由一对(x,y)进行表示,其中x为nx
定义矩阵X、Y,将输入的训练集中的x(1)
其中X为nx*m矩阵,Y为1*m矩阵。
Python中即X.shape=(nx,m),Y.shape=(1,m)。
下面以Cat vs No-cat为例:
给定以一个nx
我们希望能有一个函数,能够表示出y^
但由于y^
其函数图像为:
由函数图像可知,sigmoid函数有几个很好的性质:
* 当z趋近于正无穷大时,σ(z) = 1
* 当z趋近于负无穷大时,σ(z) = 0
* 当z = 0时,σ(z) = 0.5
所以可以用sigmoid函数来约束y^
用损失函数(Loss Function)来衡量预测值(y^(i)
但在logistic回归中一般不使用这个损失函数,因为在训练参数过程中,使用这个损失函数将得到一个非凸函数,最终将存在很多局部最优解,这种情况下使用梯度下降(Gradient Descent)法无法找到最优解。所以在logistic回归中,一般采用log函数:
L(y^,y)=−(ylog y^+(1−y)log(1−y^))
log损失函数有如下性质:
* 当y(i)=1
* 当y(i)=0
成本函数是整个训练集的损失函数的平均值:
J(w,b)=1m∑i=1mL(y^(i),y(i))
我们要找到参数w和b,使这个成本函数的值最小化。
在空间坐标中以w,b为轴画出损失函数J(w,b)的三维图像,可知这个函数为一个凸函数。为了找到合适的参数,先将w和b赋一个初始值,正如图中的小红点。在losgistic回归中,几乎任何初始化方法都有效,通常将参数初始化为零。随机初始化也起作用,但通常不会在losgistic回归中这样做,因为这个成本函数是凸的,无论初始化的值是多少,总会到达同一个点或大致相同的点。梯度下降就是从起始点开始,试图在最陡峭的下降方向下坡,以便尽可能快地下坡到达最低点,这个下坡的方向便是此点的梯度值。
在二维图像中来看,顺着导数的方向,下降速度最快,用数学公式表达即是:
w:=w−α∂J(w,b)∂w
b:=b−α∂J(w,b)∂b
其中的“:=”意思为赋值,α的不宜太小也不宜过大:太小会使迭代次数增加,容易陷入局部最优解;太大容易错过最优解。
* numpy是使用Python进行科学计算的基础包。
* matplotlib是Python中著名的绘图库。
* h5py在Python提供读取HDF5二进制数据格式文件的接口,本次的训练及测试图片集是以HDF5储存的。
* PIL(Python Image Library)为Python提供图像处理功能。
* scipy基于NumPy来做高等数学、信号处理、优化、统计和许多其它科学任务的拓展库。
几个Python包的安装及基本使用方法详见官网。
1.导入要用到的所有包
2
3
4
5
6
7
[/code]
2.导入数据
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[/code]
需要说明的是,本次的训练及测试图片集是以HDF5格式储存的,train_cat.h5、test_cat.h5文件打开后结构如下:
另外,也可以调用以下方法来查看训练集或测试集中的图片:
2
3
4
5
6
7
8
9
[/code]
3.sigmoid函数
2
3
4
[/code]
4.初始化参数w,b
2
3
4
5
[/code]
5.计算Y_hat,成本函数J以及dw,db
2
3
4
5
6
7
8
9
10
11
12
13
14
[/code]
6.梯度下降找出最优解
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[/code]
7.得出预测结果
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[/code]
8.建立整个预测模型
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
[/code]
9.初始化样本,输入模型,得出结果
2
3
4
5
6
7
8
9
10
11
12
13
14
[/code]
训练集识别准确率接近100%,测试集的准确率有70%。由于训练使用的小数据集,而且logistic回归是线性分类器,所以这个结果对于这个简单的模型实际上还是不错。
使用mathplotlib画出学习曲线:
2
3
4
5
6
7
[/code]
学习率不同时的学习曲线:
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[/code]
说明不同的学习率会带来不同的成本,从而产生不同的预测结果。
Andrew Ng-Neural Networks and Deep Learning-Coursera
deeplearning.ai
代码及课件资料-GitHub
逻辑回归(Logistic Regression,也译作”对数几率回归“)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。
符号约定
逻辑回归问题是一类二分类(Binary Classification)问题,给定一些输入,输出的结果是离散值。例如:为了训练一个猫识别器,输入一张图片表示为特征向量x,并预测图片是否为猫,输出y为1(是)或0(不是)。
我们称图片为非结构化数据,但在计算机中,一张图片以RGB方式编码时,它是以Red、Green、Blue三基色组成一个矩阵的方式进行储存的,这三个矩阵的大小和图片的大小相同 ,如图中每张猫图大小为64 pixels*64 pixels的,那么三个矩阵中每个矩阵的大小即为64*64。
单元格中代表的像素值将用来组成一个N维的特征向量。在模式识别(Pattern Recognition)和机器学习中,一个特征向量用来表示一个对象。这个问题中,这个对象为猫或者非猫。
为了组成一个特征向量x,将每一种颜色的像素值进行拆分重塑,最终形成的特征向量x的维数为nx = 64*64*3 = 12288。
一个训练样本由一对(x,y)进行表示,其中x为nx
定义矩阵X、Y,将输入的训练集中的x(1)
其中X为nx*m矩阵,Y为1*m矩阵。
Python中即X.shape=(nx,m),Y.shape=(1,m)。
Logistic 回归
Logistic 回归是一种用于解决监督学习(Supervised Learning)问题的学习算法,其输出y的值为0或1。Logistic回归的目的是使训练数据与其预测值之间的误差最小化。下面以Cat vs No-cat为例:
给定以一个nx
我们希望能有一个函数,能够表示出y^
但由于y^
其函数图像为:
由函数图像可知,sigmoid函数有几个很好的性质:
* 当z趋近于正无穷大时,σ(z) = 1
* 当z趋近于负无穷大时,σ(z) = 0
* 当z = 0时,σ(z) = 0.5
所以可以用sigmoid函数来约束y^
成本函数
为了训练logistic回归模型中的参数w和b,使得我们的模型输出值y^与真实值y尽可能基本一致,即尽可能准确地判断一张图是否为猫,我们需要定义一个成本函数(Cost Function)作为衡量的标准。用损失函数(Loss Function)来衡量预测值(y^(i)
但在logistic回归中一般不使用这个损失函数,因为在训练参数过程中,使用这个损失函数将得到一个非凸函数,最终将存在很多局部最优解,这种情况下使用梯度下降(Gradient Descent)法无法找到最优解。所以在logistic回归中,一般采用log函数:
L(y^,y)=−(ylog y^+(1−y)log(1−y^))
log损失函数有如下性质:
* 当y(i)=1
* 当y(i)=0
成本函数是整个训练集的损失函数的平均值:
J(w,b)=1m∑i=1mL(y^(i),y(i))
我们要找到参数w和b,使这个成本函数的值最小化。
梯度下降
标量场中某一点上的梯度指向标量场增长最快的方向,梯度的长度是这个最大的变化率。在空间坐标中以w,b为轴画出损失函数J(w,b)的三维图像,可知这个函数为一个凸函数。为了找到合适的参数,先将w和b赋一个初始值,正如图中的小红点。在losgistic回归中,几乎任何初始化方法都有效,通常将参数初始化为零。随机初始化也起作用,但通常不会在losgistic回归中这样做,因为这个成本函数是凸的,无论初始化的值是多少,总会到达同一个点或大致相同的点。梯度下降就是从起始点开始,试图在最陡峭的下降方向下坡,以便尽可能快地下坡到达最低点,这个下坡的方向便是此点的梯度值。
在二维图像中来看,顺着导数的方向,下降速度最快,用数学公式表达即是:
w:=w−α∂J(w,b)∂w
b:=b−α∂J(w,b)∂b
其中的“:=”意思为赋值,α的不宜太小也不宜过大:太小会使迭代次数增加,容易陷入局部最优解;太大容易错过最优解。
Python实现
使用Python编写一个logistic回归分类器来识别猫,以此来了解如何使用神经网络的思维方式来进行这项任务,识别过程如图:实现过程
其中用到的Python包有:* numpy是使用Python进行科学计算的基础包。
* matplotlib是Python中著名的绘图库。
* h5py在Python提供读取HDF5二进制数据格式文件的接口,本次的训练及测试图片集是以HDF5储存的。
* PIL(Python Image Library)为Python提供图像处理功能。
* scipy基于NumPy来做高等数学、信号处理、优化、统计和许多其它科学任务的拓展库。
几个Python包的安装及基本使用方法详见官网。
1.导入要用到的所有包
#导入用到的包 import numpy as np import matplotlib.pyplot as plt import h5py import scipy from PIL import Image from scipy import ndimage1
2
3
4
5
6
7
[/code]
2.导入数据
#导入数据 def load_dataset(): train_dataset = h5py.File("train_cat.h5","r") #读取训练数据,共209张图片 test_dataset = h5py.File("test_cat.h5", "r") #读取测试数据,共50张图片 train_set_x_orig = np.array(train_dataset["train_set_x"][:]) #原始训练集(209*64*64*3) train_set_y_orig = np.array(train_dataset["train_set_y"][:]) #原始训练集的标签集(y=0非猫,y=1是猫)(209*1) test_set_x_orig = np.array(test_dataset["test_set_x"][:]) #原始测试集(50*64*64*3 test_set_y_orig = np.array(test_dataset["test_set_y"][:]) #原始测试集的标签集(y=0非猫,y=1是猫)(50*1) train_set_y_orig = train_set_y_orig.reshape((1,train_set_y_orig.shape[0])) #原始训练集的标签集设为(1*209) test_set_y_orig = test_set_y_orig.reshape((1,test_set_y_orig.shape[0])) #原始测试集的标签集设为(1*50) classes = np.array(test_dataset["list_classes"][:]) return train_set_x_orig, train_set_y_orig, test_set_x_orig, test_set_y_orig, classes1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[/code]
需要说明的是,本次的训练及测试图片集是以HDF5格式储存的,train_cat.h5、test_cat.h5文件打开后结构如下:
另外,也可以调用以下方法来查看训练集或测试集中的图片:
#显示图片 def image_show(index,dataset): index = index if dataset == "train": plt.imshow(train_set_x_orig[index]) print ("y = " + str(train_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(train_set_y[:, index])].decode("utf-8") + "' 图片。") elif dataset == "test": plt.imshow(test_set_x_orig[index]) print ("y = " + str(test_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(test_set_y[:, index])].decode("utf-8") + "' 图片。")1
2
3
4
5
6
7
8
9
[/code]
3.sigmoid函数
#sigmoid函数 def sigmoid(z): s = 1/(1+np.exp(-z)) return s1
2
3
4
[/code]
4.初始化参数w,b
#初始化参数w,b def initialize_with_zeros(dim): w = np.zeros((dim,1)) #w为一个dim*1矩阵 b = 0 return w, b1
2
3
4
5
[/code]
5.计算Y_hat,成本函数J以及dw,db
#计算Y_hat,成本函数J以及dw,db def propagate(w, b, X, Y): m = X.shape[1] #样本个数 Y_hat = sigmoid(np.dot(w.T,X)+b) cost = -(np.sum(np.dot(Y,np.log(Y_hat).T)+np.dot((1-Y),np.log(1-Y_hat).T)))/m #成本函数 dw = (np.dot(X,(Y_hat-Y).T))/m db = (np.sum(Y_hat-Y))/m cost = np.squeeze(cost) #压缩维度 grads = {"dw": dw, "db": db} #梯度 return grads, cost1
2
3
4
5
6
7
8
9
10
11
12
13
14
[/code]
6.梯度下降找出最优解
#梯度下降找出最优解 def optimize(w, b, X, Y, num_iterations, learning_rate, print_cost = False):#num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ costs = [] #记录成本值 for i in range(num_iterations): #循环进行梯度下降 grads, cost = propagate(w,b,X,Y) dw = grads["dw"] db = grads["db"] w = w - learning_rate*dw b = b - learning_rate*db if i % 100 == 0: #每100次记录一次成本值 costs.append(cost) if print_cost and i % 100 == 0: #打印成本值 print ("循环%i次后的成本值: %f" %(i, cost)) params = {"w": w, "b": b} #最终参数值 grads = {"dw": dw, "db": db}#最终梯度值 return params, grads, costs1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[/code]
7.得出预测结果
#预测出结果 def predict(w, b, X): m = X.shape[1] #样本个数 Y_prediction = np.zeros((1,m)) #初始化预测输出 w = w.reshape(X.shape[0], 1) #转置参数向量w Y_hat = sigmoid(np.dot(w.T,X)+b) #最终得到的参数代入方程 for i in range(Y_hat.shape[1]): if Y_hat[:,i]>0.5: Y_prediction[:,i] = 1 else: Y_prediction[:,i] = 0 return Y_prediction1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[/code]
8.建立整个预测模型
#建立整个预测模型 def model(X_train, Y_train, X_test, Y_test, num_iterations = 2000, learning_rate = 0.5, print_cost = False): #num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ w, b = initialize_with_zeros(X_train.shape[0]) #初始化参数w,b parameters, grads, costs = optimize(w, b, X_train, Y_train, num_iterations, learning_rate, print_cost) #梯度下降找到最优参数 w = parameters["w"] b = parameters["b"] Y_prediction_train = predict(w, b, X_train) #训练集的预测结果 Y_prediction_test = predict(w, b, X_test) #测试集的预测结果 train_accuracy = 100 - np.mean(np.abs(Y_prediction_train - Y_train)) * 100 #训练集识别准确度 test_accuracy = 100 - np.mean(np.abs(Y_prediction_test - Y_test)) * 100 #测试集识别准确度 print("训练集识别准确度: {} %".format(train_accuracy)) print("测试集识别准确度: {} %".format(test_accuracy)) d = {"costs": costs, "Y_prediction_test": Y_prediction_test, "Y_prediction_train" : Y_prediction_train, "w" : w, "b" : b, "learning_rate" : learning_rate, "num_iterations": num_iterations} return d1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
[/code]
9.初始化样本,输入模型,得出结果
#初始化数据 train_set_x_orig, train_set_y, test_set_x_orig, test_set_y, classes = load_dataset() m_train = train_set_x_orig.shape[0] #训练集中样本个数 m_test = test_set_x_orig.shape[0] #测试集总样本个数 num_px = test_set_x_orig.shape[1] #图片的像素大小 train_set_x_flatten = train_set_x_orig.reshape(train_set_x_orig.shape[0],-1).T #原始训练集的设为(12288*209) test_set_x_flatten = test_set_x_orig.reshape(test_set_x_orig.shape[0],-1).T #原始测试集设为(12288*50) train_set_x = train_set_x_flatten/255. #将训练集矩阵标准化 test_set_x = test_set_x_flatten/255. #将测试集矩阵标准化 d = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 2000, learning_rate = 0.005, print_cost = True)1
2
3
4
5
6
7
8
9
10
11
12
13
14
[/code]
结果分析
运行程序最终得到的结果为:训练集识别准确率接近100%,测试集的准确率有70%。由于训练使用的小数据集,而且logistic回归是线性分类器,所以这个结果对于这个简单的模型实际上还是不错。
使用mathplotlib画出学习曲线:
# 画出学习曲线 costs = np.squeeze(d['costs']) plt.plot(costs) plt.ylabel('cost') plt.xlabel('iterations (per hundreds)') plt.title("Learning rate =" + str(d["learning_rate"])) plt.show()1
2
3
4
5
6
7
[/code]
学习率不同时的学习曲线:
learning_rates = [0.01, 0.001, 0.0001] models = {} for i in learning_rates: print ("学习率: " + str(i)) models[str(i)] = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 1500, learning_rate = i, print_cost = False) print ('\n' + "-------------------------------------------------------" + '\n') for i in learning_rates: plt.plot(np.squeeze(models[str(i)]["costs"]), label= str(models[str(i)]["learning_rate"])) plt.ylabel('cost') plt.xlabel('iterations') legend = plt.legend(loc='upper center', shadow=True) frame = legend.get_frame() frame.set_facecolor('0.90') plt.show()1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[/code]
说明不同的学习率会带来不同的成本,从而产生不同的预测结果。
参考资料
吴恩达-神经网络与深度学习-网易云课堂Andrew Ng-Neural Networks and Deep Learning-Coursera
deeplearning.ai
代码及课件资料-GitHub
相关文章推荐
- 神经网络和深度学习-第二周神经网络基础-第三节:Logistic 回归损失函数
- 神经网络和深度学习-第二周神经网络基础-第三节:Logistic 回归损失函数
- TensorFlow深度学习笔记 逻辑回归 实践篇
- [深度学习框架] Theano上回归神经网络实现
- 零基础入门深度学习五:逻辑回归
- 深度学习-根据提供的csv数据做回归并画图
- 机器学习逻辑回归:使用C++语言手工编写程序对a1a数据集进行Logistic分类
- 深度学习基础(一):logistic分类
- Coursera deep learning 吴恩达 神经网络和深度学习 第二周 编程作业 Logistic Regression with a Neural Network mindset
- Stanford机器学习网络课程---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- 机器学习-Logistic回归之梯度上升法
- 深度学习算法实践6---逻辑回归算法应用
- 深度学习比较三Softmax回归学习
- R语言快速深度学习进行回归预测(转)
- 深度学习 吴恩达 课后作业1-2 Logistic Regression with a Neural Network mindset
- 自学机器学习之logistic回归
- Theano深度学习(逻辑回归)
- SPSS学习笔记之——二项Logistic回归分析
- Python语言描述机器学习之Logistic回归算法
- 机器学习实战学习笔记(四):Logistic回归