- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我已经在 tensorflow
中实现了某种神经网络(GAN:生成对抗网络)。
它按预期工作,直到我决定在 generator(z)
方法中添加以下批归一化层(参见下面的完整代码):
out = tf.contrib.layers.batch_norm(out, is_training=False)
当我收到以下错误时:
G_sample = generator(Z)
File "/Users/Florian/Documents/DeepLearning/tensorflow_stuff/tensorflow_stuff/DCGAN.py", line 84, in generator
out = tf.contrib.layers.batch_norm(out, is_training=False)
File "/Users/Florian/anaconda2/lib/python2.7/site-packages/tensorflow/contrib/framework/python/ops/arg_scope.py", line 181, in func_with_args
return func(*args, **current_args)
File "/Users/Florian/anaconda2/lib/python2.7/site-packages/tensorflow/contrib/layers/python/layers/layers.py", line 551, in batch_norm
outputs = layer.apply(inputs, training=is_training)
File "/Users/Florian/anaconda2/lib/python2.7/site-packages/tensorflow/python/layers/base.py", line 381, in apply
return self.__call__(inputs, **kwargs)
File "/Users/Florian/anaconda2/lib/python2.7/site-packages/tensorflow/python/layers/base.py", line 328, in __call__
self.build(input_shapes[0])
File "/Users/Florian/anaconda2/lib/python2.7/site-packages/tensorflow/python/layers/normalization.py", line 143, in build
input_shape)
ValueError: ('Input has undefined `axis` dimension. Input shape: ', TensorShape([Dimension(None), Dimension(None), Dimension(None), Dimension(None)]))
问题似乎是由于输入 out
的 [None, None, None, None]
形状引起的,但我不知道如何解决这个问题。
完整代码如下:
from __future__ import division
from __future__ import division
from __future__ import print_function
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
from tensorflow.contrib.layers import batch_norm
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.gridspec as gridspec
import os
def leaky_relu(x, alpha):
return tf.maximum(alpha * x, x)
def discriminator(x):
with tf.variable_scope('discriminator', reuse=True):
# conv_2D accepts shape (batch, height, width, channel) as input so
# reshape it
x = tf.reshape(x, shape=[-1, 28, 28, 1])
out = tf.nn.conv2d(x, tf.get_variable('D_w_1'), strides=[1, 2, 2, 1], padding='SAME')
out = leaky_relu(out, alpha=0.2)
#out = tf.nn.dropout(out, keep_prob=0.2)
out = tf.nn.conv2d(out, tf.get_variable('D_w_2'), strides=[1, 2, 2, 1], padding='SAME')
out = leaky_relu(out, alpha=0.2)
#out = tf.nn.dropout(out, keep_prob=0.2)
# fully connected layer
out = tf.reshape(out, shape=[-1, 7*7*128])
D_logits = tf.matmul(out, tf.get_variable('D_w_fc_1'))
#D_logits = tf.nn.sigmoid(D_logits)
D_logits = leaky_relu(D_logits, alpha=0.2)
return D_logits
def generator(z):
with tf.variable_scope('generator', reuse=True):
out = tf.matmul(z, tf.get_variable('G_w_fc_1'))
out = tf.nn.relu(out)
out = tf.reshape(out, shape=[-1, 7, 7, 128])
out = tf.nn.conv2d_transpose(out,
tf.get_variable('G_w_deconv_1'),
output_shape=tf.stack([tf.shape(out)[0], 14, 14, 64]),
strides=[1, 2, 2, 1],
padding='SAME')
print(out.get_shape().as_list())
out = tf.contrib.layers.batch_norm(out, is_training=False)
out = tf.nn.relu(out)
out = tf.nn.conv2d_transpose(out,
tf.get_variable('G_w_deconv_2'),
output_shape=tf.stack([tf.shape(out)[0], 28, 28, 1]),
strides=[1, 2, 2, 1],
padding='SAME')
out = tf.nn.tanh(out)
return out
def sample_Z(m, n):
return np.random.uniform(-1., 1., size=[m, n])
def plot(samples):
fig = plt.figure(figsize=(4, 4))
gs = gridspec.GridSpec(4, 4)
gs.update(wspace=0.05, hspace=0.05)
for i, sample in enumerate(samples):
ax = plt.subplot(gs[i])
plt.axis('off')
ax.set_xticklabels([])
ax.set_yticklabels([])
ax.set_aspect('equal')
plt.imshow(sample.reshape(28, 28), cmap='Greys_r')
return fig
if __name__ == '__main__':
mnist = input_data.read_data_sets('../../MNIST_data', one_hot=True)
batch_size = 128
# size of generator input
Z_dim = 10
# batch within an epoch
batches_per_epoch = int(np.floor(mnist.train.num_examples / batch_size))
nb_epochs = 20
# learning rate
learning_rate = 0.00005 # 0.0002
Z = tf.placeholder(tf.float32, [batch_size, Z_dim])
X = tf.placeholder(tf.float32, [batch_size, 784])
with tf.variable_scope('discriminator'):
D_w_1 = tf.get_variable('D_w_1', initializer=tf.random_normal([5, 5, 1, 64], stddev=0.02))
D_w_2 = tf.get_variable('D_w_2', initializer=tf.random_normal([5, 5, 64, 128], stddev=0.02))
D_w_fc_1 = tf.get_variable('D_w_fc_1', initializer=tf.random_normal([7*7*128, 1], stddev=0.02))
D_var_list = [D_w_1, D_w_2, D_w_fc_1]
with tf.variable_scope('generator'):
G_w_fc_1 = tf.get_variable('G_w_fc_1', initializer=tf.random_normal([Z_dim, 128*7*7], stddev=0.02))
G_w_deconv_1 = tf.get_variable('G_w_deconv_1', initializer=tf.random_normal([5, 5, 64, 128], stddev=0.02))
G_w_deconv_2 = tf.get_variable('G_w_deconv_2', initializer=tf.random_normal([5, 5, 1, 64], stddev=0.02))
G_var_list = [G_w_fc_1, G_w_deconv_1, G_w_deconv_2]
G_sample = generator(Z)
D_logit_real = discriminator(X)
D_logit_fake = discriminator(G_sample)
# objective functions
# discriminator aims at maximizing the probability of TRUE data (i.e. from the dataset) and minimizing the probability
# of GENERATED/FAKE data:
D_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=D_logit_real, labels=tf.ones_like(D_logit_real)))
D_loss_fake = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=D_logit_fake, labels=tf.zeros_like(D_logit_fake)))
D_loss = D_loss_real + D_loss_fake
# generator aims at maximizing the probability of GENERATED/FAKE data (i.e. fool the discriminator)
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=D_logit_fake, labels=tf.ones_like(D_logit_fake)))
D_solver = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(D_loss, var_list=D_var_list)
# when optimizing generator, discriminator is kept fixed
G_solver = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(G_loss, var_list=G_var_list)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
if not os.path.exists('out/'):
os.makedirs('out/')
for i_epoch in range(nb_epochs):
G_loss_val = 0
D_loss_val = 0
for i_batch in range(batches_per_epoch):
print('batch %i/%i' % (i_batch+1, batches_per_epoch))
X_mb, _ = mnist.train.next_batch(batch_size)
# train discriminator
_, D_loss_curr = sess.run([D_solver, D_loss], feed_dict={X: X_mb, Z: sample_Z(batch_size, Z_dim)})
D_loss_val += D_loss_curr
# train generator
_, G_loss_curr = sess.run([G_solver, G_loss], feed_dict={Z: sample_Z(batch_size, Z_dim)})
G_loss_val += G_loss_curr
if i_batch % 50 == 0:
samples = sess.run(G_sample, feed_dict={Z: sample_Z(16, Z_dim)})
fig = plot(samples)
plt.savefig('out/%i_%i.png' % (i_epoch, i_batch), bbox_inches='tight')
plt.close(fig)
print('Iter: {}'.format(i_epoch))
print('D loss: {:.4}'.format(D_loss))
print('G_loss: {:.4}'.format(G_loss))
最佳答案
如果您传递一个常量形状,例如 [100, 14, 14, 64]
作为 output_shape
,conv2d_transpose
将返回一个张量正确的形状集。但是,如果您传入一个非常量张量(如果您事先不知道批量大小,则必须这样做),conv2d_transpose
假定它无法知道形状,直到图形是运行,并在构建期间返回一个全无的形状。
理论上它可以意识到某些维度是恒定的,但目前还没有做到这一点。
您可以使用 out.set_shape([None, 14, 14, 64])
或 out = tf.reshape(out, [-1, 14, 14, 64])
。无需设置批处理维度的大小,因为 batch_norm
不需要它。
关于python - 使用 Tensorflow 在 batch_norm 中没有维度引发 ValueError,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43480732/
我在网上搜索但没有找到任何合适的文章解释如何使用 javascript 使用 WCF 服务,尤其是 WebScriptEndpoint。 任何人都可以对此给出任何指导吗? 谢谢 最佳答案 这是一篇关于
我正在编写一个将运行 Linux 命令的 C 程序,例如: cat/etc/passwd | grep 列表 |剪切-c 1-5 我没有任何结果 *这里 parent 等待第一个 child (chi
所以我正在尝试处理文件上传,然后将该文件作为二进制文件存储到数据库中。在我存储它之后,我尝试在给定的 URL 上提供文件。我似乎找不到适合这里的方法。我需要使用数据库,因为我使用 Google 应用引
我正在尝试制作一个宏,将下面的公式添加到单元格中,然后将其拖到整个列中并在 H 列中复制相同的公式 我想在 F 和 H 列中输入公式的数据 Range("F1").formula = "=IF(ISE
问题类似于this one ,但我想使用 OperatorPrecedenceParser 解析带有函数应用程序的表达式在 FParsec . 这是我的 AST: type Expression =
我想通过使用 sequelize 和 node.js 将这个查询更改为代码取决于在哪里 select COUNT(gender) as genderCount from customers where
我正在使用GNU bash,版本5.0.3(1)-发行版(x86_64-pc-linux-gnu),我想知道为什么简单的赋值语句会出现语法错误: #/bin/bash var1=/tmp
这里,为什么我的代码在 IE 中不起作用。我的代码适用于所有浏览器。没有问题。但是当我在 IE 上运行我的项目时,它发现错误。 而且我的 jquery 类和 insertadjacentHTMl 也不
我正在尝试更改标签的innerHTML。我无权访问该表单,因此无法编辑 HTML。标签具有的唯一标识符是“for”属性。 这是输入和标签的结构:
我有一个页面,我可以在其中返回用户帖子,可以使用一些 jquery 代码对这些帖子进行即时评论,在发布新评论后,我在帖子下插入新评论以及删除 按钮。问题是 Delete 按钮在新插入的元素上不起作用,
我有一个大约有 20 列的“管道分隔”文件。我只想使用 sha1sum 散列第一列,它是一个数字,如帐号,并按原样返回其余列。 使用 awk 或 sed 执行此操作的最佳方法是什么? Accounti
我需要将以下内容插入到我的表中...我的用户表有五列 id、用户名、密码、名称、条目。 (我还没有提交任何东西到条目中,我稍后会使用 php 来做)但由于某种原因我不断收到这个错误:#1054 - U
所以我试图有一个输入字段,我可以在其中输入任何字符,但然后将输入的值小写,删除任何非字母数字字符,留下“。”而不是空格。 例如,如果我输入: 地球的 70% 是水,-!*#$^^ & 30% 土地 输
我正在尝试做一些我认为非常简单的事情,但出于某种原因我没有得到想要的结果?我是 javascript 的新手,但对 java 有经验,所以我相信我没有使用某种正确的规则。 这是一个获取输入值、检查选择
我想使用 angularjs 从 mysql 数据库加载数据。 这就是应用程序的工作原理;用户登录,他们的用户名存储在 cookie 中。该用户名显示在主页上 我想获取这个值并通过 angularjs
我正在使用 autoLayout,我想在 UITableViewCell 上放置一个 UIlabel,它应该始终位于单元格的右侧和右侧的中心。 这就是我想要实现的目标 所以在这里你可以看到我正在谈论的
我需要与 MySql 等效的 elasticsearch 查询。我的 sql 查询: SELECT DISTINCT t.product_id AS id FROM tbl_sup_price t
我正在实现代码以使用 JSON。 func setup() { if let flickrURL = NSURL(string: "https://api.flickr.com/
我尝试使用for循环声明变量,然后测试cols和rols是否相同。如果是,它将运行递归函数。但是,我在 javascript 中执行 do 时遇到问题。有人可以帮忙吗? 现在,在比较 col.1 和
我举了一个我正在处理的问题的简短示例。 HTML代码: 1 2 3 CSS 代码: .BB a:hover{ color: #000; } .BB > li:after {
我是一名优秀的程序员,十分优秀!