gpt4 book ai didi

python - 具有可变长度序列掩码的 LSTM 变分自动编码器

转载 作者:行者123 更新时间:2023-12-05 07:20:09 25 4
gpt4 key购买 nike

我正在尝试实现 LSTM VAE(遵循我发现的 this 示例),但也让它接受使用掩蔽层的可变长度序列。我尝试将以上代码与 this 中的想法结合起来SO 问题似乎是通过裁剪梯度以获得尽可能最准确的损失来处理它的“最佳方法”,但是我的实现似乎无法在一小组数据上重现序列。因此,我相对确信我的实现存在问题,但我似乎无法查明到底是什么问题。相关部分在这里:

x = Input(shape=(None, input_dim))(x)
x_masked = Masking(mask_value=0.0, input_shape=(None, input_dim))(x)

h = LSTM(intermediate_dim)(x_masked)

z_mean = Dense(latent_dim)(h)
z_log_sigma = Dense(latent_dim)(h)

def sampling(args):
z_mean, z_log_sigma = args
epsilon = K.random_normal(shape=(batch_size, latent_dim), mean=0., stddev=epsilon_std)
return z_mean + z_log_sigma * epsilon

z = Lambda(sampling, output_shape=(latent_dim,))([z_mean, z_log_sigma])

decoded_h = LSTM(intermediate_dim, return_sequences=True)
decoded_mean = LSTM(latent_dim, return_sequences=True)

h_decoded = RepeatVector(max_timesteps)(z)
h_decoded = decoder_h(h_decoded)

x_decoded_mean = decoder_mean(h_decoded)

def crop_outputs(x):
padding = K.cast(K.not_equal(x[1], 0), dtype=K.floatx())
return x[0] * padding

x_decoded_mean = Lambda(crop_outputs, output_shape=(max_timesteps, input_dim))([x_decoded_mean, x])

vae = Model(x, x_decoded_mean)

def vae_loss(x, x_decoded_mean):
xent_loss = objectives.mse(x, x_decoded_mean)
kl_loss = -0.5 * K.mean(1 + z_log_sigma - K.square(z_mean) - K.exp(z_log_sigma))
loss = xent_loss + kl_loss
return loss

vae.compile(optimizer='adam', loss=vae_loss)

# Here, X is variable length time series data of shape
# (num_examples, max_timesteps, input_dim) and is zero padded
# on the right for all the examples of length less than max_timesteps
# X has been appropriately scaled using the StandardScaler.

vae.fit(X, X, epochs = num_epochs, batch_size=batch_size)

一如既往,我们非常感谢您的帮助。谢谢!

最佳答案

我在想做完全相同的事情时遇到了你的问题。我放弃了 VAE,但找到了一种解决方案,可以将 mask 应用于不支持 mask 的图层。我所做的只是预定义一个二进制掩码(您可以使用 numpy Code 1 来完成)然后将我的输出乘以掩码。在反向传播期间,算法将尝试乘法的导数,并最终决定是否传播该值。它不像 Keras 上的掩蔽层那么聪明,但它对我有用。

#Code 1
#making a numpy binary mask
# expecting a sequence with shape (Time_Steps, Features)
# let's say that my sequence has Features = 10 and a max_Length of 15
max_Len = 15
seq = np.linspace(0,1,100).reshape((10,10))

# You must pad/truncate the sequence here
mask = np.concatenate([np.ones(seq.shape[0]),np.zeros(max_Len-seq.shape[0])],axis=-1)

# This mask can be thrown as input to the model afterwards

一些注意事项:1- 它导致了弱回归模型。不知道对 VAE 的影响,因为我从未测试过,但我认为它会产生很多噪音。2- 计算资源需求上升,因此如果您像我一样预算有限,那么尝试计算传播和反向传播此解决方法(或我们在这里所说的“gambiarra”)的要求是一件好事。3-它不会完全解决问题,您可以尝试更深入地研究这个问题,并使用纯 Tensorflow 实现更稳定的解决方案。4- 更“准确”的解决方案是实现自定义屏蔽层(代码 2)。

关于第 4 点,很简单,您必须将图层定义为默认图层,然后使用调用 函数接收掩码,然后输出掩码和输入的乘积。像这样:

# Code 2
class MyCoolMaskingLayer(tf.keras.layers.Layer):
def __init__(self, **kwargs):
#init stuff here
pass
def compute_mask(self, inputs, mask=None):
return mask
def call(self, input, mask=None):
bc_mask = tf.expand_dims(tf.cast(mask, "float32"), -1) if mask is not None else np.asarray([[1]])
return input * mask

这个函数可能对你不起作用,它确实是特定问题,来自菜鸟(我),但它对我有用。我只是不能分享整个代码,因为我的硕士导师不允许。(一点上下文:我将它包裹在一个 TimeDistributed 周围,以便 LSTM 输出的每个 TimeStep 都由这个屏蔽层单独处理,因为在 call 中我对数据执行了一些转换)

关于python - 具有可变长度序列掩码的 LSTM 变分自动编码器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57592108/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com