- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有点困惑为什么我们要使用feed_dict
?据我的 friend 说,当您使用 placeholder
时,通常会使用 feed_dict
,这可能对生产不利。
我见过这样的代码,其中不涉及 feed_dict
:
for j in range(n_batches):
X_batch, Y_batch = mnist.train.next_batch(batch_size)
_, loss_batch = sess.run([optimizer, loss], {X: X_batch, Y:Y_batch})
我也见过这样的代码,其中涉及到feed_dict
:
for i in range(100):
for x, y in data:
# Session execute optimizer and fetch values of loss
_, l = sess.run([optimizer, loss], feed_dict={X: x, Y:y})
total_loss += l
我理解 feed_dict
是您正在输入数据并尝试 X
作为键,就像在字典中一样。但在这里我看不出有什么区别。那么,到底有什么区别以及为什么我们需要 feed_dict
?
最佳答案
在 tensorflow 模型中,您可以定义一个占位符,例如 x = tf.placeholder(tf.float32)
,然后您将在模型中使用 x
。
例如,我定义了一组简单的操作:
x = tf.placeholder(tf.float32)
y = x * 42
现在,当我要求 Tensorflow 计算 y
时,很明显 y
取决于 x
。
with tf.Session() as sess:
sess.run(y)
这会产生错误,因为我没有给它指定 x
的值。在本例中,由于 x
是占位符,因此如果在计算中使用它,则必须通过 feed_dict
传入它。如果不这样做,那就是一个错误。
让我们解决这个问题:
with tf.Session() as sess:
sess.run(y, feed_dict={x: 2})
这次的结果将是84
。伟大的。现在让我们看一个不需要 feed_dict
的简单情况:
x = tf.constant(2)
y = x * 42
现在没有占位符(x
是一个常量),因此不需要向模型提供任何内容。现在可以了:
with tf.Session() as sess:
sess.run(y)
关于Tensorflow:什么时候应该使用或不使用 `feed_dict` ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50497724/
我正在玩构建线性回归的 Tensorflow 示例,我的代码如下: import numpy as np import tensorflow as tf train_X = np.asarray([3
我有点困惑为什么我们要使用feed_dict?据我的 friend 说,当您使用 placeholder 时,通常会使用 feed_dict,这可能对生产不利。 我见过这样的代码,其中不涉及 feed
假设您有一个网络,目前已使用 feed_dict 将数据注入(inject)图表。每隔几个时期,我通过将任一数据集的批处理输入到我的图表来评估训练和测试损失。 现在,出于性能原因,我决定使用输入管道。
与 .from_tensor_slices 相比,为什么 feed_dict 使用更少的 GPU 内存?我认为在下面的行中,Tensorflow 会在迭代 GPU 中的数据之前将整个数据加载到 GPU
第一次遇到这样的问题。 错误是关于 feed_dict={tfkids: kids, tfkids_fit: kids_fit} 的,似乎需要 reshape kids_fit。 谁能帮我解决这个问题
我有一个模型,需要每 N 次迭代为权重(可训练变量)分配新的外部值。 我可以想到一些解决方案: 保存和恢复 不好,因为我需要序列化,通过文件系统调用等(即使我使用 tmpfs 之类的东西) 使用占位符
所以我是 Tensorflow 的新手,我试图准确了解何时使用 feed_dict 以及何时不需要。 但是,我对 feed_dict 的工作原理感到困惑。 例如:1 会与 2 和 3 相同吗? 1.
我一直在使用 feed_dict 来直接输入 placeholder在像 MNIST 这样的小问题中练习编码。 TensorFlow 还支持使用 queue 馈送数据和 queue runner ,它
我正在使用 Java 来提供通过 Python 学习的 Tensorflow 模型。该模型有两个输入。代码如下: def predict(float32InputShape: (Long, Lon
我正在运行一个简单的神经网络进行线性回归。然而,TensorFlow 提示我的 feed_dict 占位符不是图表的元素。然而,我的占位符和模型都在我的图表中定义,如下所示: import numpy
我正在研究 python 中的分类问题。事实上,我在 TensorFlow 方面还不是很好。所以我很久以来就有同样的问题,我不知道如何解决。我希望你能帮助我:) 这是我的数据: X:8000 张图片:
我刚开始用 python 学习 Tensorflow。当我从一个简单的 AddTwo 类开始时出现以下错误。错误信息是: Cannot interpret feed_dict key as Tenso
我有一个由多个子网络组成的网络(多个卷积网络和最后一个全连接 + 软最大层)。每个 ConvNet 提要具有特定区域和图像大小。因此,为了给我的网络提供数据,我为每个 convnet 输入编写图像占位
我正在尝试将一个简单的片段从 TensorFlow 1.x 转换为 TensorFlow 2: # ########## TensorFlow 1.x code: ########## import
我正在尝试将 feed_dict value bool 传递给函数 def sum(a, b, flag = True, msg1= "Sum", msg2= "Multiply "): if
现在我有一个模型配置为使用 feed_dict 获取输入。代码看起来像这样: # model.py class MyModel(object): def __init__(self, hyperp
我正在解决 TensorFlow 的示例问题(特别是使用占位符),并且不明白为什么我收到(看起来是)形状/类型错误,而我相当有信心这些错误是什么他们应该是。 我尝试过使用 X_batch 和 y_ba
下面是小的 Tensorflow 代码 # coding: utf-8 # In[27]: import tensorflow as tf # In[28]: # Model parameters W
我在 Tensorflow 中有一个 C++ 代码,如下所示,它涉及使用占位符的矩阵乘法: #include #include #include #include #include "tens
我想在 TensorFlow C++ 中构建和训练一个由两层组成的图,并将给定的矩阵作为输入提供给它。 我有两个不同的语法示例: The official C++ example (line # 12
我是一名优秀的程序员,十分优秀!