- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个像下面这样的对话语料库。我想实现一个预测系统 Action 的 LSTM 模型。系统 Action 被描述为位向量。并且用户输入被计算为一个词嵌入,它也是一个位向量。
t1: user: "Do you know an apple?", system: "no"(action=2)
t2: user: "xxxxxx", system: "yyyy" (action=0)
t3: user: "aaaaaa", system: "bbbb" (action=5)
return_sequences
选项和
TimeDistributed
LSTM 之后的层。实现“多对多(2)”,
return_sequences==True
并添加一个
TimeDistributed
在需要 LSTM 之后?如果您能对它们进行更多描述,我将不胜感激。
return_sequences: Boolean. Whether to return the last output in the output sequence, or the full sequence.
TimeDistributed: This wrapper allows to apply a layer to every temporal slice of an input.
return_sequence
选项。但我仍然不确定
TimeDistributed
.如果我添加一个
TimeDistributed
在 LSTM 之后,模型是否与下面的“我的多对多(2)”相同?所以我认为每个输出都应用了密集层。
最佳答案
LSTM 层和 TimeDistributed 包装器是获得您想要的“多对多”关系的两种不同方式。
(n_words, emb_size)
的二维张量
lstm_output
的 LSTM和
return_sequence = True
.输出仍然是一个序列,所以它将是一个形状为
(n_words, lstm_output)
的二维张量.
(n_words, 3)
.
关于deep-learning - 如何在 Keras 中使用 return_sequences 选项和 TimeDistributed 层?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42755820/
我编写了以下脚本,用于读取 CNN-RNN-FCN NN 架构的 yaml 规范并构建相应的 Keras 模型: #!/usr/bin/env python3 # -*- coding: utf-8
我有一个预训练模型,其中包含多个具有不同形状的输入。所以我可以在具有匹配形状的新输入上调用模型,如下所示: new_output = model([input_1, input2]) 与 input_
来自 keras docs : 然后,您可以使用 TimeDistributed 将 Dense 层独立应用于 10 个时间步长中的每一个: # as the first layer in a mod
举例来说,我有一个输入,其中包含2张图像,总形状为(2,299,299,3)。我正在尝试在每个图像上应用inceptionv3,然后随后使用LSTM处理输出。我正在使用 mask 层将空白图像排除在处
我有一个简单的序列模型,使用 TimeDistributed(Dense...) 作为 LSTM 层之后的最后一层。我正在以 20 个时间步长的顺序训练时间序列数据。损失函数是Mean Absolut
BatchNormalization 和 TimeDistributed(BatchNormalization) 是否对顺序数据(例如视频)有相同的影响?如果不是有什么区别? 最佳答案 在 tf.ke
我正在尝试使以下代码行正常工作: low_encoder_out = TimeDistributed( AutoregressiveDecoder(...) )([X_tf, embeddings])
我目前正在使用 Keras 开发 LSTM,并且对 TimeDistributed 层有疑问。 假设我有一个 TimeDistributed 层,它接受诸如 (batch_size,timesteps
我试图了解 TimeDistributed 层在 keras/tensorflow 中的使用。我已经阅读了一些主题和文章,但仍然没有正确理解。 让我对 TImeDistributed 层的作用有一些了
我已经完成了 official documentation但仍然无法理解 TimeDistributed 作为 Keras 模型中的层实际上做了什么? 我无法理解 TimeDistributed 和
我正在尝试了解 TimeDistributed 包装器在 Keras 中的作用。 我知道 TimeDistributed “将一个层应用于输入的每个时间切片。” 但是我做了一些实验,得到了我无法理解的
我创建了一个 CNN-LSTM 用于网络 session 的生存预测,我的训练数据如下所示: print(x_train.shape) (288, 3, 393) 使用(样本、时间步长、特征)和我的模
我的输入状态形状= (84,84,4) state = Input(shape=(84,84,4), dtype="float") 所以我想将其传递给时间步长大小=1..5(范围为1到5)的某个Tim
这是我的问题,我想在 TimeDistributed 层中使用预训练 CNN 网络之一。但是我在实现它时遇到了一些问题。 这是我的模型: def bnn_model(max_len): # s
我知道这个主题有很多问题,但我不明白为什么在我的情况下这两种选择都是可能的。我在 LSTM 中的输入形状是 (10,24,2),我的 hidden_size 是 8。 model = Sequen
这是我的尝试: inputs = Input(shape=(config.N_FRAMES_IN_SEQUENCE, config.IMAGE_H, config.IMAGE_W, config.N_
我正在尝试更好地理解 Keras 层。我正在研究一个序列到序列模型,我在其中嵌入一个句子并将其传递给返回序列的 LSTM。此后,我想将 Dense 层应用于句子中的每个时间步长(单词),并且 Time
抱歉,我是 RNN 的新手。我读过this post在 TimeDistributed 层上。 我已将数据 reshape 为 Keras 要求的 [samples, time_steps, feat
我一直在尝试对 machinelearningmastery 中显示的 LSTM 模型的输出实现注意力包装器教程: from numpy import array from keras.models
我正在尝试构建一个可以在音频和视频样本上进行训练的模型,但出现此错误 ValueError:请使用“Layer”实例初始化“TimeDistributed”层。您传递了:Tensor("input_1
我是一名优秀的程序员,十分优秀!