您的位置:首页 > Web前端

Effective TensorFlow Chapter 5: 在TensorFlow中,给模型喂数据(feed data)

2017-12-11 10:06 721 查看

Effective TensorFlow Chapter 5: 在TensorFlow中,给模型喂数据(feed data)

本文翻译自: 《Feeding data to TensorFlow》, 如有侵权请联系删除,仅限于学术交流,请勿商用。如有谬误,请联系指出。

TensorFlow被设计可以在大规模的数据情况下高效地运行。所以你需要记住千万不要“饿着”你的TF模型,这样才能得到最好的表现。一般来说,一共有三种方法可以“喂养”(feed)你的模型。

常数方式(Constants

最简单的方式莫过于直接将数据当成常数嵌入你的计算图中,如:

import tensorflow as tf
import numpy as np

actual_data = np.random.normal(size=[100])
data = tf.constant(actual_data)


这个方式非常地高效,但是却不灵活。这个方式存在一个大问题就是为了在其他数据集上复用你的模型,你必须要重写你的计算图,而且你必须同时加载所有数据,并且一直保存在内存里,这意味着这个方式仅仅适用于小数剧集的情况。

占位符方式(Placeholders

可以通过占位符(placeholder)的方式解决刚才常数喂养网络的问题,如:

import tensorflow as tf
import numpy as np

data = tf.placeholder(tf.float32)
prediction = tf.square(data) + 1
actual_data = np.random.normal(size=[100])
tf.Session().run(prediction, feed_dict={data: actual_data})


占位符操作符返回一个张量,他的值在会话(session)中通过人工指定的
feed_dict
参数得到(fetch)。(译者:也就是说占位符其实只是占据了数据喂养的位置而已,而不是真正的数据,所以在训练过程中,如果真正需要使用这个数据,就必须要指定合法的feed_dict,否则将会报错。

通过python的操作(python ops

还可以通过利用python ops喂养数据:

def py_input_fn():
actual_data = np.random.normal(size=[100])
return actual_data

data = tf.py_func(py_input_fn, [], (tf.float32))


python ops允许你将一个常规的python函数转换成一个TF的操作。(译者:这种方法不常用。

利用TF的自带数据集API(Dataset API

最值得推荐的方式就是通过TF自带的数据集API进行喂养数据,如:

actual_data = np.random.normal(size=[100])
dataset = tf.contrib.data.Dataset.from_tensor_slices(actual_data)
data = dataset.make_one_shot_iterator().get_next()


如果你需要从文件中读入数据,你可能需要将文件转化为
TFrecord
格式,这将会使得整个过程更加有效(译者:同时,可以利用TF中的队列机制和多线程机制,实现无阻塞的训练。

dataset = tf.contrib.data.Dataset.TFRecordDataset(path_to_data)


查看官方文档,了解如何将你的数据集转化为
TFrecord
格式。(译者:我即将推出关于TFrecord的博文,有需要的朋友敬请关注。

dataset = ...
dataset = dataset.cache()
if mode == tf.estimator.ModeKeys.TRAIN:
dataset = dataset.repeat()
dataset = dataset.shuffle(batch_size * 5)
dataset = dataset.map(parse, num_threads=8)
dataset = dataset.batch(batch_size)


在读入了数据之后,我们使用
Dataset.cache()
方法,将其缓存到内存中,以求更高的效率。在训练模式中,我们不断地重复数据集,这使得我们可以多次处理整个数据集。我们也需要打乱(shuffle)数据集得到batch,这个batch将会有不同的样本分布。下一步,我们使用
Dataset.map()
方法,对原始的数据(raw records)进行预处理,将数据转换成一个模型可以识别,利用的格式。(译者:map参考MapDeduce和python自带的高阶函数map)然后,我们就通过
Dataset.batch()
,创造样本的batch了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐