- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试重新实现这篇论文1作者在 Keras 中使用 PyTorch 2 。这是网络架构: 到目前为止我所做的是:
number_of_output_classes = 1
hidden_size = 100
direc = 2
lstm_layer=Bidirectional(LSTM(hidden_size, dropout=0.2, return_sequences=True))(combined) #shape after this step (None, 200)
#weighted sum and attention should be here
attention = Dense(hidden_size*direc, activation='linear')(lstm_layer) #failed trial
drop_out_layer = Dropout(0.2)(attention)
output_layer=Dense(1,activation='sigmoid')(drop_out_layer) #shape after this step (None, 1)
我想在 LSTM 之后包含注意力层和最终 FF 层,但由于维度和 return_sequence= True 选项,我遇到了错误。
最佳答案
这是一个序列分类任务。序列分类是多对一的映射,其中顺序输入被标记为单个类别。在这种情况下,您的输入的形状应为(batch_size,time_steps,channels),输出的形状应为(batch_size,channels)。如果 LSTM 类的 return_sequences 参数为 True,则输出的形状将为(batch_size、time_steps、channels)。将其输入到密集层和丢失层不会减少维度数。要将维度数减少到 2,您必须将最后 LSTM 层的 return_sequences
参数设置为 False
。对于你的情况
lstm_layer=Bidirectional(LSTM(hidden_size, dropout=0.2, return_sequences=False))(combined)
关于python - return_sequence=True 的 LSTM 之后的 Keras Dense 层,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55232757/
我有一个 Tensorflow/Keras 模型: self.model.add(Bidirectional(LSTM(lstm1_size, input_shape=(
我尝试通过附加三层 ConvLSTM 进行建模,但是当我在第一个 ConvLSTM 中设置 return_sequence = False 时,程序将无法运行。 查看模型摘要 Model summar
在 tensorflow/keras 中,我们可以简单地设置 return_sequences = False对于分类/完全连接/激活(softmax/sigmoid)层之前的最后一个 LSTM 层,
我有一个像下面这样的对话语料库。我想实现一个预测系统 Action 的 LSTM 模型。系统 Action 被描述为位向量。并且用户输入被计算为一个词嵌入,它也是一个位向量。 t1: user: "D
我在 RNN 工作。我有来自某个网站的以下代码行。如果您观察到第二层没有“returnSequence”参数。 我假设返回序列是强制性的,因为它应该返回序列。您能告诉我为什么没有定义吗? 第一层
我正在尝试重新实现这篇论文1作者在 Keras 中使用 PyTorch 2 。这是网络架构: 到目前为止我所做的是: number_of_output_classes = 1 hidden_size
我有一个要分类的序列,使用带有 return_sequences=True 的 Keras LSTM。我有“数据”和“标签”数据集,它们都是相同的形状——二维矩阵,按位置行,按时间间隔列(单元格值是我
我是一名优秀的程序员,十分优秀!