- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
它是在一个时期内进行一次洗牌,还是其他?
tf.train.shuffle_batch 和 tf.train.batch 有什么区别?
有人可以解释一下吗?谢谢。
最佳答案
首先看一下文档( https://www.tensorflow.org/api_docs/python/tf/train/shuffle_batch 和 https://www.tensorflow.org/api_docs/python/tf/train/batch )。内部批处理是围绕 FIFOQueue 构建的,而 shuffle_batch 是围绕 RandomShuffleQueue 构建的。
考虑下面的玩具示例,它将 1 到 100 放入一个常量中,该常量通过 tf.train.shuffle_batch 和 tf.train.batch 提供,然后打印结果。
import tensorflow as tf
import numpy as np
data = np.arange(1, 100 + 1)
data_input = tf.constant(data)
batch_shuffle = tf.train.shuffle_batch([data_input], enqueue_many=True, batch_size=10, capacity=100, min_after_dequeue=10, allow_smaller_final_batch=True)
batch_no_shuffle = tf.train.batch([data_input], enqueue_many=True, batch_size=10, capacity=100, allow_smaller_final_batch=True)
with tf.Session() as sess:
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(coord=coord)
for i in range(10):
print(i, sess.run([batch_shuffle, batch_no_shuffle]))
coord.request_stop()
coord.join(threads)
0 [array([23, 48, 15, 46, 78, 89, 18, 37, 88, 4]), array([ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10])]
1 [array([80, 10, 5, 76, 50, 53, 1, 72, 67, 14]), array([11, 12, 13, 14, 15, 16, 17, 18, 19, 20])]
2 [array([11, 85, 56, 21, 86, 12, 9, 7, 24, 1]), array([21, 22, 23, 24, 25, 26, 27, 28, 29, 30])]
3 [array([ 8, 79, 90, 81, 71, 2, 20, 63, 73, 26]), array([31, 32, 33, 34, 35, 36, 37, 38, 39, 40])]
4 [array([84, 82, 33, 6, 39, 6, 25, 19, 19, 34]), array([41, 42, 43, 44, 45, 46, 47, 48, 49, 50])]
5 [array([27, 41, 21, 37, 60, 16, 12, 16, 24, 57]), array([51, 52, 53, 54, 55, 56, 57, 58, 59, 60])]
6 [array([69, 40, 52, 55, 29, 15, 45, 4, 7, 42]), array([61, 62, 63, 64, 65, 66, 67, 68, 69, 70])]
7 [array([61, 30, 53, 95, 22, 33, 10, 34, 41, 13]), array([71, 72, 73, 74, 75, 76, 77, 78, 79, 80])]
8 [array([45, 52, 57, 35, 70, 51, 8, 94, 68, 47]), array([81, 82, 83, 84, 85, 86, 87, 88, 89, 90])]
9 [array([35, 28, 83, 65, 80, 84, 71, 72, 26, 77]), array([ 91, 92, 93, 94, 95, 96, 97, 98, 99, 100])]
关于tensorflow - tf.train.shuffle_batch 如何工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45203872/
我注意到,如果我将训练数据加载到内存中并将其作为 numpy 数组提供到图中,与使用相同大小的 shuffle 批次相比,速度会有很大差异,我的数据有大约 1000 个实例。 使用内存 1000 次迭
import tensorflow as tf sess = tf.Session() def add_to_batch(image): print('Adding to batch')
更新问题 我正在尝试使用 shuffle_batch() 函数将标签与 tensorflow 中的图像匹配,但是当我开始使用shuffle_batch() 函数。 1。我更新的问题 使用shuffle
它是在一个时期内进行一次洗牌,还是其他? tf.train.shuffle_batch 和 tf.train.batch 有什么区别? 有人可以解释一下吗?谢谢。 最佳答案 首先看一下文档( http
我正在尝试使用 TensorFlow 干净的方式 (tf.train.shuffle_batch) 处理我的输入数据,大部分代码是我从教程中收集的,并稍作修改,例如 decode_jpeg 函数。 s
在 Tensorflow tutorial ,它给出了以下关于 tf.train.shuffle_batch() 的示例: # Creates batches of 32 images and 32
我有一个训练数据文件,大约有 100K 行,并且我在每个训练步骤上运行一个简单的 tf.train.GradientDescentOptimizer。该设置本质上直接取自 Tensorflow 的 M
我有一个 tfrecords 文件,我希望从中创建批量数据。我正在使用 tf.train.shuffle_batch() 来创建单个批处理。在我的训练中,我想调用批处理并通过它们。这就是我被困住的地方
查看两个带有参数的函数签名 tf.train.shuffle_batch_join( tensors_list, batch_size, capacity, min_after_dequeue, se
我使用 Binary data训练 DNN。 但是 tf.train.shuffle_batch 和 tf.train.batch 让我很困惑。 这是我的代码,我将对其进行一些测试。 首先Using_
我正在尝试使用 tf.train.shuffle_batch 来使用 TensorFlow 1.0 使用 TFRecord 文件中的批量数据。相关功能有: def tfrecord_to_graph_
我是一名优秀的程序员,十分优秀!