- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
import tensorflow as tf
sess = tf.Session()
def add_to_batch(image):
print('Adding to batch')
image_batch = tf.train.shuffle_batch([image],batch_size=5,capacity=11,min_after_dequeue=1,num_threads=1)
# Add to summary
tf.image_summary('images',image_batch)
return image_batch
def get_batch():
# Create filename queue of images to read
filenames = [('/media/jessica/Jessica/TensorFlow/Practice/unlabeled_data_%d.png' % i) for i in range(11)]
filename_queue = tf.train.string_input_producer(filenames)
reader = tf.WholeFileReader()
key, value = reader.read(filename_queue)
# Read and process image
my_image = tf.image.decode_png(value)
my_image_float = tf.cast(my_image,tf.float32)
image_mean = tf.reduce_mean(my_image_float)
my_noise = tf.random_normal([96,96,3],mean=image_mean)
my_image_noisy = my_image_float + my_noise
print('Reading images')
return add_to_batch(my_image_noisy)
def main ():
sess.run(tf.initialize_all_variables())
tf.train.start_queue_runners(sess=sess)
writer = tf.train.SummaryWriter('/media/jessica/Jessica/TensorFlow/Practice/summary_logs', graph_def=sess.graph_def)
merged = tf.merge_all_summaries()
images = get_batch()
summary_str = sess.run(merged)
writer.add_summary(summary_str)
你好,
我正在尝试在 TensorFlow 中构建一个简单的神经网络。我正在尝试批量加载我的输入图像。现在我用 11 张图像和 batch_size = 5 测试代码。最终我将处理 100000 张图像。
这段代码修改自 TensorFlow 的 cifar10.py 示例。出于某种原因,我的代码在 tf.train.shuffle_batch([image],batch_size=5,capacity=1,min_after_dequeue=1,num_threads=1)
停止(不终止,它只是卡在那里)
我已经尝试了 batch_size、capacity、min_after_dequeue 等的不同组合,但我仍然无法弄清楚哪里出了问题。
任何帮助将不胜感激!谢谢!
最佳答案
看起来问题的出现是因为语句
tf.train.start_queue_runners(sess=sess)
...在创建任何队列运行器之前执行。如果您在 images = get_batch()
之后移动此行,您的程序应该可以运行。
这里有什么问题? tf.train.shuffle_batch()
函数内部使用 tf.RandomShuffleQueue
生产随机批处理。目前,将元素放入该队列的唯一方法是运行一个调用 q.enqueue()
的步骤。操作。为了使这更容易,TensorFlow 有一个概念 "queue runners"在构建图形时隐式收集,然后通过调用 tf.train.start_queue_runners()
开始。但是,调用 tf.train.start_queue_runners()
只会启动当时已定义的队列运行器,因此它必须在创建队列的代码之后运行者。
关于TensorFlow shuffle_batch 不工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35714832/
我注意到,如果我将训练数据加载到内存中并将其作为 numpy 数组提供到图中,与使用相同大小的 shuffle 批次相比,速度会有很大差异,我的数据有大约 1000 个实例。 使用内存 1000 次迭
import tensorflow as tf sess = tf.Session() def add_to_batch(image): print('Adding to batch')
更新问题 我正在尝试使用 shuffle_batch() 函数将标签与 tensorflow 中的图像匹配,但是当我开始使用shuffle_batch() 函数。 1。我更新的问题 使用shuffle
它是在一个时期内进行一次洗牌,还是其他? tf.train.shuffle_batch 和 tf.train.batch 有什么区别? 有人可以解释一下吗?谢谢。 最佳答案 首先看一下文档( http
我正在尝试使用 TensorFlow 干净的方式 (tf.train.shuffle_batch) 处理我的输入数据,大部分代码是我从教程中收集的,并稍作修改,例如 decode_jpeg 函数。 s
在 Tensorflow tutorial ,它给出了以下关于 tf.train.shuffle_batch() 的示例: # Creates batches of 32 images and 32
我有一个训练数据文件,大约有 100K 行,并且我在每个训练步骤上运行一个简单的 tf.train.GradientDescentOptimizer。该设置本质上直接取自 Tensorflow 的 M
我有一个 tfrecords 文件,我希望从中创建批量数据。我正在使用 tf.train.shuffle_batch() 来创建单个批处理。在我的训练中,我想调用批处理并通过它们。这就是我被困住的地方
查看两个带有参数的函数签名 tf.train.shuffle_batch_join( tensors_list, batch_size, capacity, min_after_dequeue, se
我使用 Binary data训练 DNN。 但是 tf.train.shuffle_batch 和 tf.train.batch 让我很困惑。 这是我的代码,我将对其进行一些测试。 首先Using_
我正在尝试使用 tf.train.shuffle_batch 来使用 TensorFlow 1.0 使用 TFRecord 文件中的批量数据。相关功能有: def tfrecord_to_graph_
我是一名优秀的程序员,十分优秀!