- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有 GAN 网络,它应该生成剑的 3D 模型。我基于 Tensorflow GAN 生成数字图像的教程构建它:https://www.tensorflow.org/tutorials/generative/dcgan .
我正在将 .obj 文件(所有模型都有 240 个面)转换为 mat [240;9]
(其中 9 是面顶点的坐标)。所有坐标 <= 1.0,数据集中有大约 3000 多个模型。
我混合了 3D 模型矩阵并开始学习我的 GAN 网络。每 100 个时期,我都会打印鉴别器预测的平均值:用于学习的数据集、用于检查鉴别器的未使用模型的数据集、生成的模型和垃圾(随机生成的矩阵 [240,9]
)
激活的判别器函数是线性的:如果结果 > 0 => 判别器接受模型,如果 < 0 则表示判别器拒绝模型。
但是我得到的结果是:
> 1-th epoch:
> Learned Dataset AVG Prediction: ~ 0.002
> Unused Checking Dataset AVG Prediction ~ 0.0018
> Generated Dataset AVG Prediction ~ -0.002
> Garbage Dataset AVG Prediction ~ -1.5
>
> 6000-th epoch:
> Learned Dataset AVG Prediction: ~ 17.000
> Unused Checking Dataset AVG Prediction ~ 19.000
> Generated Dataset AVG Prediction ~ -3.000
> Garbage Dataset AVG Prediction ~ -20000.000
这意味着判别器学习正确,但生成器无法欺骗判别器。我得到了像剑一样的 3D 模型,但是多边形随机旋转并且没有连接:https://imgur.com/FGOVDTT (100.000 纪元)
我的数据集很好,并且判别器学习正确吗?我应该改变发电机模型网络的结构吗?进行此类培训的原因是什么?
def make_generator_model():
model = tf.keras.Sequential()
model.add(layers.Dense(30 * 9 * 512, use_bias=False, input_shape=(100,)))
model.add(layers.BatchNormalization())
model.add(layers.LeakyReLU())
model.add(layers.Reshape((30, 9, 512)))
assert model.output_shape == (None, 30, 9, 512) # Note: None is the batch size
model.add(layers.Conv2DTranspose(128, (5, 5), strides=(2, 1), padding='same', use_bias=False))
assert model.output_shape == (None, 60, 9, 128)
model.add(layers.BatchNormalization())
model.add(layers.LeakyReLU())
model.add(layers.Conv2DTranspose(64, (5, 5), strides=(2, 1), padding='same', use_bias=False))
assert model.output_shape == (None, 120, 9, 64)
model.add(layers.BatchNormalization())
model.add(layers.LeakyReLU())
model.add(layers.Conv2DTranspose(1, (5, 5), strides=(2, 1), padding='same', use_bias=False, activation='tanh'))
assert model.output_shape == (None, 240, 9, 1)
return model
我的程序中的所有其他代码与 TensorFlow 网站中的代码相同
最佳答案
在这种情况下,生成器难以产生良好输出的原因有很多。我首先想到的是你使用的表示形式。假设 3D 模型中没有孔,这意味着相邻面的关节顶点必须完全匹配。这是很难实现的,因为您的输出是 float ,因此面之间可能会有很多小缝隙或重叠,这些特征您可能在原始数据集中找不到。这使得你的鉴别器很容易区分生成的样本。 (几乎每个顶点都出现多次 -> 原始样本,顶点位置之间的差异非常小 -> 生成样本)
此问题的一种解决方案可能是更改您的表示形式,例如以下选项之一:
选项 1) 具有进一步减少输入空间的额外优势,但可能会导致略有不同的结果。有些边缘情况表面无法按上述方式表示,但这些是最简单的方法。如果您有复杂的 3D 模型,无法像这样表示,则必须想出其他方法,但有很多选项可供选择。
关于python - GAN 判别器否认生成的模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59128265/
本文为生成对抗网络GAN的研究者和实践者提供全面、深入和实用的指导。通过本文的理论解释和实际操作指南,读者能够掌握GAN的核心概念,理解其工作原理,学会设计和训练自己的GAN模型,并能够对结果
我设置了具有透明度的图像。 我正在尝试训练 GAN(生成对抗网络)。 如何保持透明度。我可以从输出图像中看到所有透明区域都是黑色的。 我怎样才能避免这样做? 我认为这叫做“阿尔法 channel ”。
我有 GAN 网络,它应该生成剑的 3D 模型。我基于 Tensorflow GAN 生成数字图像的教程构建它:https://www.tensorflow.org/tutorials/generat
我是生成网络的新手,我决定先自己尝试一下,然后再查看代码。这些是我用来训练我的 GAN 的步骤。 [库: tensorflow ] 1) 在数据集上训练鉴别器。 (我使用了 2 个特征的数据集,标签为
我正在尝试构建一个简单的 mnist GAN,不用多说,它没有用。我搜索了很多并修复了我的大部分代码。虽然我不能真正理解损失函数是如何工作的。 这是我做的: loss_d = -tf.reduce_m
我正在训练一个 GAN 来执行来自两个不同图像域(源 S 和目标 T)的风格转换。因为我有可用的类信息,所以我有一个额外的 Q 网络(G 和 D 除外),用于测量生成图像的分类结果目标域及其标签(Le
我训练了一个 GAN 来重现类似 CIFAR10 的图像。最初我注意到生成器生成的一批图像中的所有图像看起来总是一样的,如下图所示: 经过数小时的调试和与初学者学习资源教程 (https://mach
在阅读了 GAN 教程和代码示例后,我仍然不明白生成器是如何训练的。假设我们有一个简单的案例:- 生成器输入是噪声,输出是灰度图像 10x10- 鉴别器输入是图像 10x10,输出是从 0 到 1 的
这是我第一次使用 GAN,我面临着一个问题,即鉴别器的性能反复优于生成器。我正在尝试从 this article 重现 PA 模型,我正在寻找 this slightly different impl
我是 GAN 的新手。我正在学习对 GAN 进行建模以生成图像,但是我真的不明白给予生成器的随机噪声到底是什么。它是从 0 到 1 的随机数,它的大小应该是多少。每次发电机运行时,随机噪声也应该是恒定
最初由 IJ Goodfellow 提出的 GAN 使用以下损失函数, D_loss = - log[D(X)] - log[1 - D(G(Z))] G_loss = - log[D(G(Z))]
我创建了一个简单的 DCGAN 6 层,并在 CelebA 数据集(其中一部分包含 30K 图像)上进行训练。 我注意到我的网络生成的图像看起来很暗,随着网络训练的增多,明亮的颜色逐渐变暗! 这里有一
我试图在 Keras 中实现基本的 GAN,基于 this执行。 如果我在抛物线 GAN 上采样点是收敛的并且能够从这个分布中产生样本,但是如果例如我在圆上采样点它就会失败。我想知道为什么 GAN 很
我正在使用 Wasserstein GAN 开展一个项目,更具体地说,是实现 Wasserstein GAN 的改进版本。我有两个关于 wGAN 的稳定性和训练过程的理论问题。首先,众所周知,损失函数
我目前正在考虑在 keras 中实现 Self-Attention GAN。我想实现的方式如下: def Attention(X, channels): def hw_flatten(x):
我有一个 GAN 网络。生成器正在绘制 mnist 数字。效果很好。但我不明白它是如何知道应该绘制哪个数字的。这是生成器: def build_generator(latent_size):
我正在尝试在 tensorflow 中构建 LSTM-GAN。 仅在鉴别器网络中,当我尝试计算损失时,我会得到错误 ValueError: No gradients provided for any
我按照 GAN 上的教程进行操作 - https://github.com/adeshpande3/Generative-Adversarial-Networks/blob/master/Genera
为了深入了解生成对抗网络,我正在尝试基于此 Stanford university assignment 自己为 MNIST 数据集实现 GAN。使用 tensorflow 。 我仔细审查和研究了给定
类别不平衡问题是 GAN 固有的吗?在 GAN 中,有 2 个网络相互对抗,一个是分类器,对手试图通过生成假图像来愚弄分类器。 GAN 生成的所有图像都是假的,因此如果算法运行足够长的时间,必然会出现
我是一名优秀的程序员,十分优秀!