您的位置:首页 > 其它

Tensorflow深度学习入门——基础运行流程

2017-06-13 14:45 711 查看
本文转载,仅用于个人学习之用,不用于商业用途,如有侵权,请联系本人删除,谢谢!

此文编译自FCC(FreeCodeCamp),作者为Déborah Mesquita,该作者利用神经网络和TensorFlow进行了机器文本分类,并提出了一种新颖的学习方法——宏观分析。机器人圈希望通过此文对圈友开始机器学习的探索之路有所帮助,文章略长,请耐心阅读并收藏。我们附上了此实例最终代码的GitHub链接,供圈友学习使用。

  开发人员经常说,如果你想要着手机器学习,你就应该首先学习算法是如何运行的。但是我的经验告诉我并不需要如此。

  我认为,你应该首先能够宏观了解:这个应用程序是如何运行的。一旦你弄明白这一点,深入挖掘和探索这个算法的内部工作原理将变得相当简单。

  那么,你该如何培养对机器学习的直觉并实现宏观了解呢?创建机器学习模型就是一个很好的方法。

  假设你依旧不知道该如何从头开始创建这些算法,那么你将希望使用一个帮你实现所有这些算法的库,而这个库就是TensorFlow。

  在本文中,我们将要创建一个机器学习模型来进行文本分类。我们先讨论一下主题:

  1.TensorFlow是如何运行的?

  2.什么是机器学习模型?

  3.什么是神经网络?

  4.神经网络是如何进行学习的?

  5.如何操作数据并将其传递给神经网络输入?

  6.如何运行模型并获得预测结果?

  你将要学习到大量的新知识,那么我们开始吧。

  TensorFlow

  TensorFlow是一种机器学习的开源库,最初是由谷歌创立的。这个库的名字帮助我们理解我们是如何用它工作的:张量(Tensor)是通过图的节点流动的多维数组。

  ★tf.Graph

  TensorFlow中的每一个计算都代表着一个数据流图。这个图有两个元素:

  一系列的tf.Operation,代表计算单位

  一系列的tf.Tensor,代表数据单位

  为了看清这一切是如何运行的,你需要创建一下这张数据流图:



计算X+Y的图形

  定义x= [1,3,6],y =[1,1,1],这个图和tf.Tensor一起工作来代表数据的单位,你需要创建恒定的张量:



  现在你需要定义操作单元:



  你已经有足够的图元素了,现在你需要创建图:



  这就是TensorFlow工作流是如何运行的:首先,你需要创建一张图,只有这样你才能进行计算(真正地运行图节点的操作)。为了运行这图你将需要创建一个tf.Session。

  ★tf.Session

  一个tf.Session对象封装了操作对象执行的环境,并且对Tensor对象进行评估(tf.Session介绍)。为了做到这一点,我们需要定义在会话中将要用到哪一张图:



  想要执行这个操作,你会用到tf.Session.run()这个方法。这个方法执行TensorFlow计算中的一步,而这个是通过运行必要的图表片段来执行每个Operation和评估在参数提取中传递的每一个Tensor来实现的。在你的案例中,你需要运行一系列操作中的一步:



  一个预测模型

  既然你已经知道TensorFlow是如何工作的,你就必须学习如何创建一个可预测模型。总的说来,就是:

机器学习算法+数据=预测模型

  构建模型的过程如下:



构建模型的过程

  正如你所见,这个模型包含一种用数据“训练”的机器学习算法。一旦你有了这个模型,你将获得以下的结果:



预测工作流

  你创建的这个模型的目标是为了将文本类别进行分类,我们定义它为:

input: text, result: category

  我们有一个包含所有文本的训练数据集(每一个文本都有一个标签,说明它属于哪个类别)。在机器学习中这类任务是以“监督”学习的方式进行的。

  你需要将数据进行类别分类,所以它也是一个分类任务。为了创建模型,我们将使用神经网络。

  神经网络

  一个神经网络就是一个计算模型(使用数学语言和数学概念来描述一个系统的一种方式)。这些系统进行自学习和训练,而不是显式地编程。

  神经网络受到我们中枢神经系统的启发,连接着和我们的神经元相似的节点。

  


  一个神经网络

  感知器是第一个神经网络算法。(神经网络算法简介)

  为了理解神经网络是如何工作的,我们需要通过TensorFlow建立一个神经网络结构。

  神经网络结构

这个神经网络将有两个隐藏层(你必须选择网络中有多少个隐藏层,这是架构设计的一部分)。每个隐藏层的工作是将输入转换为输出层可以使用的内容。

  ★隐藏层1



输入层和第一层隐藏层

  你还需要定义第一个隐藏层将有多少个节点。这些节点也被称为特征或神经元,在上面的图像中,它们由每个圆圈表示。

  在输入层,每个节点都对应于数据集的一个词(稍后我们将看到它是如何工作的)。

  正像这里解释的,每个节点(神经元)乘以一个权重,每个节点都有一个权重,并在神经网络训练阶段调整这些值以产生正确的输出(等等,我们一会儿说着重说一下这个)。

  除了将每一个输入节点乘以一个权重,网络中还增加了偏差(偏差在神经网络中的作用)。

  输入乘以权重后,经过加法之后输入给偏差,数据还要经过一个激活函数。这个激活函数定义了每个节点的最终输出。举个例子来说明,假设每个节点是一盏灯,激活函数将要断定这盏灯是开还是关。

  激活函数的类型有很多种,你将使用修正线性单元(ReLu),这个函数是这样定义的:

f(x) = max(0,x)

[输出X或0(zero),较大的那一个]

例如:如果x= -1,那么f(x)=0(zero); 如果x=0.7,那么f(x)=0.7

  ★隐藏层2

  第二隐藏层的操作和第一隐藏层的操作是一样的,但是现在第二隐藏层的输入是第一隐藏层的输出。



第一和第二隐藏层

  ★输出层

  终于,我们来到了最后一层,输出层。你需要使用独热编码(One-Hot Encoding)来获得这一层的结果。在这个编码中值为以1的比特只有一个,其他的值都是0。

  例如,如果我们想编码三个类别(运动、空间和计算机图形学):



  所以输出节点的数量就是输入数据集的类的数量。

  输出层的值也乘以权重,并且我们还添加了偏差,但现在激活函数是不同的。

  你想用一个类别来标明每一个文本,这些类别是互斥的(一个文本不能同时属于两类)。考虑这一点,我们将使用Softmax函数,而不是使用ReLu激活函数(Softmax函数简介)。这个函数将每个统一的输出转换为一个范围在0和1之间的值,也确保单位的总和等于1。这种方式的输出会告诉我们每个文本为每个类别的概率。



  现在你已经有了神经网络的数据流图。将我们到目前为止看到的翻译成代码,结果是(点击图片放大):



  (稍后我们将讨论输出层的激活函数的代码)

  神经网络是如何学习的

  正如我们前面看到的那样,权重值在网络训练的时候是不断更新的。现在我们将看到在TensorFlow环境中这些是如何发生的。

  ★tf.Variable

  权重和偏差都存储在变量(tf.Variable)中。这些变量通过调用run()来维护图的状态。在机器学习中,我们通常通过正态分布值来启动权重和偏差值。



  当我们第一次运行网络(即由正态分布的定义的权重值):



  想知道网络是不是在学习,你需要比较输出值(z)与预期值(expected)。我们如何计算这种差异(loss)?有许多方法可以实现这一点,因为我们正在与一个分类任务协同工作,最好的衡量损失最好的方法就是“交叉熵代价函数(cross-entropy error)”。

  詹姆斯D•麦卡弗里给出了一个出色的解释,解释了为什么这是这种任务的最好的方法。(交叉熵代价函数)

  在TensorFlow中你会使用tf.nn.softmax_cross_entropy_with_logits()来计算交叉熵误差(这是softmax激活函数)并计算平均误差(tf.reduced_mean())。



  你当然想找到最好的权重值和偏差,以最小化输出误差(我们得到的值和正确的值之间的区别)。为了做到这一点,你需要使用梯度下降法,更具体地说,你将使用随机梯度下降法。



梯度下降法

来源:https://sebastianraschka.com/faq/docs/closed-form-vs-gd.html

  也有很多算法来计算梯度下降,你需要使用自适应估计方法(Adam),在TensorFlow中使用这个算法需要通过learning_rate值,它决定增量步的值来找到最好的权重值。

  tf.train.AdamOptimizer(learning_rate).minimize(loss)是一种语法糖(syntactic sugar),它做两件事:

  1.计算梯度(loss, <list of variables>)

  2.运用梯度(<list of variables>)

  这种方法用新值来更新所有的tf.Variables,所以我们不需要传递变量的列表。现在你有训练网络的代码(点图放大):



  数据操作

  你将使用的数据集会有许多英文文字,那么我们需要操纵这些数据使它们通过神经网络。这样做的话你需要做两件事:

  为每个单词创建索引

  为每个文本创建一个矩阵,如果字在文本中值为1,否则的话为0

  让我们看看代码理解这个过程(点图放大):



  在上面的示例中,文本内容是‘Hi from Brazil’,矩阵是[1,1,1],那么如果文本内容是‘Hi’呢?



  现在你将要使用到独热编码:



  运行图表并得到结果

  这是最有意思的部分:从模型中得到结果,首先让我们仔细看看输入数据集。

  ★数据集

  你需要使用20新闻组、约20主题的18000帖子的数据集,为了加载这个数据集,你将使用scikit-learn图书馆(scikit-learn图书馆),我们只使用到其中3类:comp.graphics、sci.space和rec.sport.baseball。

  scikit-learn有两个子集:一个用于训练,另一个用于测试。我的建议就是,你不应该看测试数据,因为这会在创建模型的时候会干涉你的选择。你当然不想创建一个模型来预测这个特定的测试数据,而是需要创建一个具有良好的泛化性能的模型。

  加载数据集:



  训练模型

  在神经网络术语中, 一次epoch=一个向前传递(得到输出值)和一个向后传递(更新权重)。

  需要记住tf.Session.run()方法么?我们来仔细地瞧一瞧吧。

  在本文开始的数据流图操作中,你使用的是和操作,但是我们也可以通过一系列的事情来运行。在整个神经网络运行,你要传递两件事:损失计算和优化步骤。

  这个feed_dict参数是我们每一次运行步骤中用来传递数据的,为了传递这些数据我们需要定义tf.placeholders(为feed_dict提供供给)。

  正如TensorFlow文件中说的那样:

  “一个占位符存在的唯一理由就是作为供给的目标,这不是初始化也不包含数据。”

  所以,你可以这样定义定位符:



  你需要分批次地训练数据:

  “如果使用占位符进行输入,则可以通过使用tf.placeholder(...,shape = [None,...])创建占位符来指定变量批量维度。该形状的“None”元素对应于可变大小的维度”

  在测试模型的时候,我们用一个更大的批次来供给,这就是为什么你需要定义一个变量批维度。

  这个get_batches()函数可以为我们提供文本的数量与批量的大小,现在我们可以运行这个模式(点图放大):



  现在你有了这个训练好的模型。要测试它,你还需要创建图形元素,我们将测量模型的准确性,所以你需要预报值的索引和正确值的索引(因为我们使用的是一个独热编码),检查他们是否相等,并计算所有的测试数据集的平均值(点图放大):



  就是它!你使用神经网络创建了一个模型来对文本进行类别分类。恭喜你!

  你可以在这里看到最终代码

  https://github.com/dmesquita/understanding_tensorflow_nn

  

  提示:修改我们定义的值,以查看不同更改对训练时间和模型精度的影响。

  原文链接:

  https://medium.freecodecamp.com/big-picture-machine-learning-classifying-text-with-neural-networks-and-tensorflow-d94036ac2274

  来源:medium

  作者:Déborah Mesquita
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  深度学习