- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
现在我已经训练了一个模型 A
并且我需要两个模型 A
实例,因为其中一个是固定的并且无法训练用于输出而另一个可以训练用于下一个网络。 我设计了两个variable_scope A_train
和A_untrain
,我在variable_scope
中预训练了A
模型> A_untrain
并在此范围内恢复模型,代码如下:
saver_untrain = tf.train.Saver(tf.get_collection(
tf.GraphKeys.GLOBAL_VARIABLES,
'A_untrain'))
saver_path = '~/models/model.ckpt'
# here pre-train model A
saver_untrain.save(sess, saver_path)
现在我需要将相同的模型 A
参数恢复到 A_train
范围内的相同模型中,但是我不能按照之前的代码进行操作,因为 ckpt 文件恢复了类似的参数A_untrain/input_w1
代替 A_train/input_w1
。我想知道我的问题是否有解决方案或更好的解决方案来制作两个实例,一个是可训练的,另一个是不可训练的。非常感谢。
EDIT_1:我知道我可以使用如下代码实现我的需求:
saver_train = tf.train.Saver({'A_untrain/input_w1': A_train.input_w1})
但是当我的变量量很大的时候就不实用了,所以我需要用variable_scope
来恢复,而不是具体的变量名。
最佳答案
我终于通过 numpy 找到了解决方案。我们可以将训练好的参数保存为 '*.npy' 格式。当我们需要加载参数时,我们可以np.load
npy文件,然后在Session中调用tf.assign()
来赋值。不管怎样都行你的 variable_scope 是。
关于tensorflow - 在tensorflow中,如何将某个variable_scope的变量恢复到另一个某个variable_scope中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46608512/
from __future__ import print_function import tensorflow as tf def _var_init(name, shape, initializer
我目前正在阅读基于 Tensorflow 的 slim 库的源代码,他们为 variable_scope 方法大量使用 values 参数,例如 here . 从API页面我可以看到: This co
我对重用变量时的子作用域有疑问。这个 import tensorflow as tf def make_bar(): with tf.variable_scope('bar'): tf.g
我正在尝试为一个项目构建一个 GAN,我真的很想了解 tensorflow 的变量范围中的变量共享是如何工作的。 为了构建 GAN,我有一个生成器网络和两个鉴别器网络:一个鉴别器接受真实图像,而一个鉴
这个问题在这里已经有了答案: What's the difference of name scope and a variable scope in tensorflow? (8 个回答) 关闭3年前
我编写了一个方便的 API 来在 TensorFlow 中定义我的模型,该 API 公开了一个范围对象。现在我想在添加操作之前验证用户是否实际进入了范围。如何在 TensorFlow 中获取当前事件的
Supoose 我有两个模型 foo 和 bar。假设 bar 已预训练并加载。我想定义 foo 的成本函数,如以下代码中粗略地描绘的那样(它实际上是一个自动编码器)。请注意,这是重现我的问题的最小示
tf.variable_scope 有一个 partitioner 参数,如 documentation 中所述. 据我了解,它用于分布式训练。谁能更详细地解释它的正确用法是什么? 最佳答案 巨大的
我只是想了解 TensorFlow 的命名行为,但仍需要一些说明。我在一个项目中遇到了命名张量的麻烦,因为它们是在函数中预定义的,稍后会调用该函数。 所以我这里有下面的例子: import tenso
在TensorFlow网站上发现两个引用变量范围的链接,一个是tf.variable_scope这是最常用的一个,另一个 tf.VaribleScope . 由于没有给出tf.VariableScop
我在使用 Tensorflow 时遇到问题: 以下代码为卷积 block 生成正确的图: def conv_layer(self, inputs, filter_size = 3, num_filte
回到 TensorFlow = 2.0 中消失了。因此,像这样的解决方案...... with tf.variable_scope("foo"): with tf.variable_scope
我是一名优秀的程序员,十分优秀!