- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试实现 LSTM VAE(遵循我发现的 this 示例),但也让它接受使用掩蔽层的可变长度序列。我尝试将以上代码与 this 中的想法结合起来SO 问题似乎是通过裁剪梯度以获得尽可能最准确的损失来处理它的“最佳方法”,但是我的实现似乎无法在一小组数据上重现序列。因此,我相对确信我的实现存在问题,但我似乎无法查明到底是什么问题。相关部分在这里:
x = Input(shape=(None, input_dim))(x)
x_masked = Masking(mask_value=0.0, input_shape=(None, input_dim))(x)
h = LSTM(intermediate_dim)(x_masked)
z_mean = Dense(latent_dim)(h)
z_log_sigma = Dense(latent_dim)(h)
def sampling(args):
z_mean, z_log_sigma = args
epsilon = K.random_normal(shape=(batch_size, latent_dim), mean=0., stddev=epsilon_std)
return z_mean + z_log_sigma * epsilon
z = Lambda(sampling, output_shape=(latent_dim,))([z_mean, z_log_sigma])
decoded_h = LSTM(intermediate_dim, return_sequences=True)
decoded_mean = LSTM(latent_dim, return_sequences=True)
h_decoded = RepeatVector(max_timesteps)(z)
h_decoded = decoder_h(h_decoded)
x_decoded_mean = decoder_mean(h_decoded)
def crop_outputs(x):
padding = K.cast(K.not_equal(x[1], 0), dtype=K.floatx())
return x[0] * padding
x_decoded_mean = Lambda(crop_outputs, output_shape=(max_timesteps, input_dim))([x_decoded_mean, x])
vae = Model(x, x_decoded_mean)
def vae_loss(x, x_decoded_mean):
xent_loss = objectives.mse(x, x_decoded_mean)
kl_loss = -0.5 * K.mean(1 + z_log_sigma - K.square(z_mean) - K.exp(z_log_sigma))
loss = xent_loss + kl_loss
return loss
vae.compile(optimizer='adam', loss=vae_loss)
# Here, X is variable length time series data of shape
# (num_examples, max_timesteps, input_dim) and is zero padded
# on the right for all the examples of length less than max_timesteps
# X has been appropriately scaled using the StandardScaler.
vae.fit(X, X, epochs = num_epochs, batch_size=batch_size)
一如既往,我们非常感谢您的帮助。谢谢!
最佳答案
我在想做完全相同的事情时遇到了你的问题。我放弃了 VAE,但找到了一种解决方案,可以将 mask 应用于不支持 mask 的图层。我所做的只是预定义一个二进制掩码(您可以使用 numpy Code 1 来完成)然后将我的输出乘以掩码。在反向传播期间,算法将尝试乘法的导数,并最终决定是否传播该值。它不像 Keras 上的掩蔽层那么聪明,但它对我有用。
#Code 1
#making a numpy binary mask
# expecting a sequence with shape (Time_Steps, Features)
# let's say that my sequence has Features = 10 and a max_Length of 15
max_Len = 15
seq = np.linspace(0,1,100).reshape((10,10))
# You must pad/truncate the sequence here
mask = np.concatenate([np.ones(seq.shape[0]),np.zeros(max_Len-seq.shape[0])],axis=-1)
# This mask can be thrown as input to the model afterwards
一些注意事项:1- 它导致了弱回归模型。不知道对 VAE 的影响,因为我从未测试过,但我认为它会产生很多噪音。2- 计算资源需求上升,因此如果您像我一样预算有限,那么尝试计算传播和反向传播此解决方法(或我们在这里所说的“gambiarra”)的要求是一件好事。3-它不会完全解决问题,您可以尝试更深入地研究这个问题,并使用纯 Tensorflow 实现更稳定的解决方案。4- 更“准确”的解决方案是实现自定义屏蔽层(代码 2)。
关于第 4 点,很简单,您必须将图层定义为默认图层,然后使用调用 函数接收掩码,然后输出掩码和输入的乘积。像这样:
# Code 2
class MyCoolMaskingLayer(tf.keras.layers.Layer):
def __init__(self, **kwargs):
#init stuff here
pass
def compute_mask(self, inputs, mask=None):
return mask
def call(self, input, mask=None):
bc_mask = tf.expand_dims(tf.cast(mask, "float32"), -1) if mask is not None else np.asarray([[1]])
return input * mask
这个函数可能对你不起作用,它确实是特定问题,来自菜鸟(我),但它对我有用。我只是不能分享整个代码,因为我的硕士导师不允许。(一点上下文:我将它包裹在一个 TimeDistributed 周围,以便 LSTM 输出的每个 TimeStep 都由这个屏蔽层单独处理,因为在 call 中我对数据执行了一些转换)
关于python - 具有可变长度序列掩码的 LSTM 变分自动编码器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57592108/
我是一名优秀的程序员,十分优秀!