- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 TensorFlow(版本:r1.2)中将数据集 API 用于输入管道。我构建了我的数据集,并以 128 的批量大小对其进行了批处理。该数据集输入到 RNN 中。
不幸的是,dataset.output_shape
返回第一个维度中的维度(无),因此 RNN 引发错误:
Traceback (most recent call last):
File "untitled1.py", line 188, in <module>
tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)
File "/home/harold/anaconda2/envs/tensorflow_py2.7/lib/python2.7/site-packages/tensorflow/python/platform/app.py", line 48, in run
_sys.exit(main(_sys.argv[:1] + flags_passthrough))
File "untitled1.py", line 121, in main
run_training()
File "untitled1.py", line 57, in run_training
is_training=True)
File "/home/harold/huawei/ConvLSTM/ConvLSTM.py", line 216, in inference
initial_state=initial_state)
File "/home/harold/anaconda2/envs/tensorflow_py2.7/lib/python2.7/site-packages/tensorflow/python/ops/rnn.py", line 566, in dynamic_rnn
dtype=dtype)
File "/home/harold/anaconda2/envs/tensorflow_py2.7/lib/python2.7/site-packages/tensorflow/python/ops/rnn.py", line 636, in _dynamic_rnn_loop
"Input size (depth of inputs) must be accessible via shape inference,"
ValueError: Input size (depth of inputs) must be accessible via shape inference, but saw value None.
origin_dataset = Dataset.BetweenS_Dataset(FLAGS.data_path)
train_dataset = origin_dataset.train_dataset
test_dataset = origin_dataset.test_dataset
shuffle_train_dataset = train_dataset.shuffle(buffer_size=10000)
shuffle_batch_train_dataset = shuffle_train_dataset.batch(128)
batch_test_dataset = test_dataset.batch(FLAGS.batch_size)
iterator = tf.contrib.data.Iterator.from_structure(
shuffle_batch_train_dataset.output_types,
shuffle_batch_train_dataset.output_shapes)
(images, labels) = iterator.get_next()
training_init_op = iterator.make_initializer(shuffle_batch_train_dataset)
test_init_op = iterator.make_initializer(batch_test_dataset)
print(shuffle_batch_train_dataset.output_shapes)
output_shapes
它给出:
(TensorShape([Dimension(None), Dimension(36), Dimension(100)]), TensorShape([Dimension(None)]))
(TensorShape([Dimension(128), Dimension(36), Dimension(100)]), TensorShape([Dimension(128)]))
最佳答案
此功能已添加到 drop_remainder
使用的参数如下:
batch_test_dataset = test_dataset.batch(FLAGS.batch_size, drop_remainder=True)
drop_remainder: (Optional.) A tf.bool scalar tf.Tensor, representing whether the last batch should be dropped in the case its has fewer than batch_size elements; the default behavior is not to drop the smaller batch.
关于tensorflow - 为什么 dataset.output_shapes 在批处理后返回维度(无),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44299379/
我在 TensorFlow(版本:r1.2)中将数据集 API 用于输入管道。我构建了我的数据集,并以 128 的批量大小对其进行了批处理。该数据集输入到 RNN 中。 不幸的是,dataset.ou
tf.nn.conv2d_transpose 的文档说: tf.nn.conv2d_transpose( value, filter, output_shape, st
tf.nn.conv2d_transpose 的文档说: tf.nn.conv2d_transpose( value, filter, output_shape, st
我有一个来自上一层的 4D 张量 h0,形状为 [10, 1, 1, 1, 10],我想使用 conv3d_transpose 进行上采样 到具有形状的张量 h1,比方说,[10, 4, 4, 4,
我正在使用 tensorflow hub 构建一个用于文本分类的简单 BERT 模型。 import tensorflow as tf import tensorflow_hub as tf_hub
我想在我的网络中使用 conv2d_tranpose(或反卷积)而不是上采样。这需要将 output_shape 传递给函数调用。那不是问题,我可以计算。但我想对 batch_size 使用 None
我一直在学习他们网站上的 TensorFlow 教程。在使用 RNN 进行文本分类练习中,我遇到了这个错误。我尝试了一些更改,并且还复制并粘贴了代码以收到相同的错误。有什么建议?谢谢 我试过在分配了
我是一名优秀的程序员,十分优秀!