tf.train.batch和tf.train.shuffle_batch的用法
2017-05-26 09:19
309 查看
tf.train.batch([example, label], batch_size=batch_size, capacity=capacity):[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,batch_size是返回的一个batch样本集的样本个数。capacity是队列中的容量。这主要是按顺序组合成一个batch
tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue)。这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数小于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。
上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的
tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue)。这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数小于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。
上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的
相关文章推荐
- tf.train.batch和tf.train.shuffle_batch的用法
- [tensorflow教程] [cifar10] tf.train.batch和tf.train.shuffle_batch的用法
- tf.train.shuffle_batch
- tf.train.batch和tf.train.shuffle_batch的理解
- tf.train.batch()和tf.train.shuffle_batch()函数
- tf.train.shuffle_batch和tf.train.batch接口说明
- tf.train.batch 和 tf.train.shuffle_batch 的知识笔记
- 遇到的问题与解决办法(tf.train.shuffle_batch与tf.train.slice_input_producer)
- tf.train.Saver函数的用法之保存全部变量和模型
- TensorFlow入门基础知识(六)tf.train.ExponentialMovingAverage()的用法
- tf.train.shuffle_batch函数解析
- tensorflow学习——tf.floor与tf.train.batch
- tf.train.batch 和 tf.train.batch_join的区别
- tf.train.ExponentialMovingAverage用法
- tensorflow tf.train.batch之数据批量读取
- tf.train.exponential_decay的用法
- tf.train.batch()
- tf.train.exponential_decay的用法
- TensorFlow入门基础知识(七)tf.train.exponential_decay的用法
- tf.train.ExponentialMovingAverage的用法