您的位置:首页 > 理论基础 > 计算机网络

深度学习5:python实现三层神经网络

2017-11-28 11:24 761 查看
今天实现一个三层的神经网络,网络模型如下图:



该网络的实现源码:(编译环境:Jupyter Notebook pyton3)

import numpy as np

#定义一个激活函数
def sigmoid(X, deriv = False):
if(deriv == True):
return X*(1-X)
return 1/(1+ np.exp(-X))

#构造数据集
x = np.array([[0,0,1],
[0,1,1],
[1,0,1],
[1,1,1],
[0,0,1]])
print(x.shape)

y = np.array([[0],[1],[1],[0],[0]])
print(y.shape)

#指定随机的种子,每次运行产生相同数据
np.random.seed(1)
#L0有三个特征,L1有4个神经元,所以w0为3行4列,取值范围(-1,1)
w0 = 2*np.random.random((3,4))-1
w1 = 2*np.random.random((4,1))-1
print(w0)

#神经网络模型构造及训练
for j in range(1000001):
#L0层
l0 = x
#前向传播,计算后l1为5行4列
l1 = sigmoid(np.dot(l0,w0))
#前向传播,计算后l2为5行1列
l2 = sigmoid(np.dot(l1,w1))
#计算预测值与标签的差异值
l2_error = y - l2
if(j %100000)==0:
print('Error'+str(np.mean(np.abs(l2_error))))
print(j)

#方向传播,计算梯度值
#如l2_error很大,则需要大力度更新;如果l2_error很小,则只需要更新一点点
#所以导数乘以l2_error, *为连个5行一列的矩阵对应位置相乘
l2_delta = l2_error * sigmoid(l2, deriv=True)
#l2_delta5行1列,w14行1列,
l1_error = l2_delta.dot(w1.T)
l1_delta = l1_error * sigmoid(l1, deriv=True)

#更新参数
#l15行4列,l2_delta5行1列,w1为4行一列
w1 += l1.T.dot(l2_delta)
#l05行3列,l2_delta5行4列,w0为3行4列
w0 +=  l0.T.dot(l1_delta)


如果你能够看懂上面这些代码,那么恭喜你已经理解了前向传播和反向传播的原理。

(1)部分代码演示:



(2)关于激活函数,sigmoid函数:

Sigmoid函数是一个在生物学中常见的S型的函数,也称为S型生长曲线。  由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间。因为它的非线性映射关系,因此也常用作激活函数:





定义激活函数代码中:

def sigmoid(X, deriv = False):

    if(deriv == True):        

        return X*(1-X)

    return 1/(1+ np.exp(-X))   

deriv为True时,就是sigmoid函数的导数,反向传播的时候调用。

(3)网络模型反向传播



反向传播时,Y-L2就是代码中的误差l2_error,根据导数链式法则l2_error*sigmoid函数的导数,就是反向传播到第一个sig园圈后的误差值。经历第一个sig圆圈后,再往回传就是w1*x,其导数值为x,所以l1_error等于l2_delta.dot(w1.T)。l1_error到l1_delta原理同右边第一个sig圆圈。

运行结果:



更多更好文章,欢迎关注公众号:深圳程序媛(updatedaybyday)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐