- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个预训练模型,其中包含多个具有不同形状的输入。所以我可以在具有匹配形状的新输入上调用模型,如下所示:
new_output = model([input_1, input2])
与
input_1.shape = (400, 200)
input_2.shape = (400, 200, 10)
我想重用模型在数据系列上对其进行训练,因此我的新输入将具有以下形状:
input_1.shape = (100, 400, 200)
input_2.shape = (100, 400, 200, 10)
为了重用模型,我想像这样使用 Keras 的 TimeDistributed
层:
output = TimeDistributed(model)([input_1, input_2])
这不起作用,因为 TimeDistributed
不接受列表作为输入。到目前为止我发现的所有变通方法都是使用合并输入来解决这个问题,但这个解决方案在我的情况下不起作用,因为输入形状不同。
我也试过像这样使用一些 Lambda
层:
lambda_0 = Lambda(lambda x: x)
lambda_1 = Lambda(lambda x: [TimeDistributed(lambda_0)(x[0]), TimeDistributed(lambda_0)(x[1])])([input_1, input_2])
output = model(lambda_1)
但这不起作用,因为它只是在 lambda_0
上使用了 TimeDistributed
而不是在模型上。也许有针对此问题的 Lambda
包装器的解决方案,或者我可能必须定义一个自定义 Keras 层,但目前我遇到了这个问题,所以我将不胜感激。
最佳答案
您可以轻松地将 (?, 400, 200)
reshape 为 (?, 400, 200, 1)
,然后将两个输入连接起来以获得形状为 Tensor (?, 400, 200, 11)
,然后将此张量提供给 Lambda
层,该层包裹在 TimeDistributed
层中,因此应用您的每个时间步的模型:
in1 = Input((400, 200))
in2 = Input((400, 200, 10))
r_in1 = Reshape((400, 200, 1))(in1) # you can also use `K.expand_dims()` in a Lambda layer
concat = concatenate([r_in1, in2])
out_model = TimeDistributed(Lambda(lambda x: model([x[:,:,0], x[:,:,1:]])))(concat)
new_model = Model([in1, in2], [out_model])
关于python - 具有不同形状的多个输入的 Keras TimeDistributed,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52699598/
我编写了以下脚本,用于读取 CNN-RNN-FCN NN 架构的 yaml 规范并构建相应的 Keras 模型: #!/usr/bin/env python3 # -*- coding: utf-8
我有一个预训练模型,其中包含多个具有不同形状的输入。所以我可以在具有匹配形状的新输入上调用模型,如下所示: new_output = model([input_1, input2]) 与 input_
来自 keras docs : 然后,您可以使用 TimeDistributed 将 Dense 层独立应用于 10 个时间步长中的每一个: # as the first layer in a mod
举例来说,我有一个输入,其中包含2张图像,总形状为(2,299,299,3)。我正在尝试在每个图像上应用inceptionv3,然后随后使用LSTM处理输出。我正在使用 mask 层将空白图像排除在处
我有一个简单的序列模型,使用 TimeDistributed(Dense...) 作为 LSTM 层之后的最后一层。我正在以 20 个时间步长的顺序训练时间序列数据。损失函数是Mean Absolut
BatchNormalization 和 TimeDistributed(BatchNormalization) 是否对顺序数据(例如视频)有相同的影响?如果不是有什么区别? 最佳答案 在 tf.ke
我正在尝试使以下代码行正常工作: low_encoder_out = TimeDistributed( AutoregressiveDecoder(...) )([X_tf, embeddings])
我目前正在使用 Keras 开发 LSTM,并且对 TimeDistributed 层有疑问。 假设我有一个 TimeDistributed 层,它接受诸如 (batch_size,timesteps
我试图了解 TimeDistributed 层在 keras/tensorflow 中的使用。我已经阅读了一些主题和文章,但仍然没有正确理解。 让我对 TImeDistributed 层的作用有一些了
我已经完成了 official documentation但仍然无法理解 TimeDistributed 作为 Keras 模型中的层实际上做了什么? 我无法理解 TimeDistributed 和
我正在尝试了解 TimeDistributed 包装器在 Keras 中的作用。 我知道 TimeDistributed “将一个层应用于输入的每个时间切片。” 但是我做了一些实验,得到了我无法理解的
我创建了一个 CNN-LSTM 用于网络 session 的生存预测,我的训练数据如下所示: print(x_train.shape) (288, 3, 393) 使用(样本、时间步长、特征)和我的模
我的输入状态形状= (84,84,4) state = Input(shape=(84,84,4), dtype="float") 所以我想将其传递给时间步长大小=1..5(范围为1到5)的某个Tim
这是我的问题,我想在 TimeDistributed 层中使用预训练 CNN 网络之一。但是我在实现它时遇到了一些问题。 这是我的模型: def bnn_model(max_len): # s
我知道这个主题有很多问题,但我不明白为什么在我的情况下这两种选择都是可能的。我在 LSTM 中的输入形状是 (10,24,2),我的 hidden_size 是 8。 model = Sequen
这是我的尝试: inputs = Input(shape=(config.N_FRAMES_IN_SEQUENCE, config.IMAGE_H, config.IMAGE_W, config.N_
我正在尝试更好地理解 Keras 层。我正在研究一个序列到序列模型,我在其中嵌入一个句子并将其传递给返回序列的 LSTM。此后,我想将 Dense 层应用于句子中的每个时间步长(单词),并且 Time
抱歉,我是 RNN 的新手。我读过this post在 TimeDistributed 层上。 我已将数据 reshape 为 Keras 要求的 [samples, time_steps, feat
我一直在尝试对 machinelearningmastery 中显示的 LSTM 模型的输出实现注意力包装器教程: from numpy import array from keras.models
我正在尝试构建一个可以在音频和视频样本上进行训练的模型,但出现此错误 ValueError:请使用“Layer”实例初始化“TimeDistributed”层。您传递了:Tensor("input_1
我是一名优秀的程序员,十分优秀!