tf.train.batch()
2017-10-25 15:02
162 查看
tf.train.batch([example, label],batch_size=batch_size, capacity=capacity)
[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batch
tf.train.shuffle_batch([example, label],batch_size=batch_size, capacity=capacity, min_after_dequeue)
这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数大于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。
上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的
[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batch
tf.train.shuffle_batch([example, label],batch_size=batch_size, capacity=capacity, min_after_dequeue)
这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数大于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。
上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的
相关文章推荐
- tf.train.batch和tf.train.shuffle_batch的用法
- tf.train.batch()和tf.train.shuffle_batch()函数
- tf.train.shuffle_batch
- tf.train.shuffle_batch和tf.train.batch接口说明
- 遇到的问题与解决办法(tf.train.shuffle_batch与tf.train.slice_input_producer)
- tf.train.batch和tf.train.shuffle_batch的用法
- [tensorflow教程] [cifar10] tf.train.batch和tf.train.shuffle_batch的用法
- tf.train.batch 和 tf.train.shuffle_batch 的知识笔记
- tensorflow学习——tf.floor与tf.train.batch
- tf.train.batch和tf.train.shuffle_batch的理解
- tensorflow tf.train.batch之数据批量读取
- tf.train.batch 和 tf.train.batch_join的区别
- tf.train.ExponentialMovingAverage解析
- tensorflow学习——tfreader格式,队列读取数据tf.train.shuffle_batch()
- TensorFlow入门(九)使用 tf.train.Saver()保存模型
- test_iter TRAIN_ batch_size TEST_ batch_size
- tf.train
- tensorboard学习——tf.train.SummaryWriter无此属性
- tensorflow 1.0之tf.train.Saver 文档翻译
- tf.train中的Optimizer相关的函数与功能介绍