- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用来自 tensorflow-hub 的预训练模型构建 CNN + RNN:
base_model = hub.KerasLayer('https://tfhub.dev/google/imagenet/resnet_v2_50/feature_vector/4', input_shape=(244, 244, 3)
base_model.trainable = False
model = Sequential()
model.add(TimeDistributed(base_model, input_shape=(15, 244, 244, 3)))
model.add(LSTM(512))
model.add(Dense(256, activation='relu'))
model.add(Dense(3, activation='softmax'))
adam = Adam(learning_rate=learning_rate)
model.compile(loss='categorical_crossentropy' , optimizer=adam , metrics=['accuracy'])
model.summary()
这是我得到的:
2020-01-29 16:1
6:37.585888: I tensorflow/core/platform/profile_utils/cpu_utils.cc:94] CPU Frequency: 2494000000 Hz
2020-01-29 16:16:37.586205: I tensorflow/compiler/xla/service/service.cc:168] XLA service 0x3b553f0 executing computations on platform Host. Devices:
2020-01-29 16:16:37.586231: I tensorflow/compiler/xla/service/service.cc:175] StreamExecutor device (0): Host, Default Version
Traceback (most recent call last):
File "./RNN.py", line 45, in <module>
model.add(TimeDistributed(base_model, input_shape=(None, 244, 244, 3)))
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/training/tracking/base.py", line 457, in _method_wrapper
result = method(self, *args, **kwargs)
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/keras/engine/sequential.py", line 178, in add
layer(x)
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/keras/engine/base_layer.py", line 842, in __call__
outputs = call_fn(cast_inputs, *args, **kwargs)
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/keras/layers/wrappers.py", line 256, in call
output_shape = self.compute_output_shape(input_shape).as_list()
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/keras/layers/wrappers.py", line 210, in compute_output_shape
child_output_shape = self.layer.compute_output_shape(child_input_shape)
File "/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/keras/engine/base_layer.py", line 639, in compute_output_shape
raise NotImplementedError
NotImplementedError
有什么建议吗?是否可以将 KerasLayer 转换为 Conv2D,...层?
最佳答案
您似乎无法使用 TimeDistributed
层来解决此问题。但是,由于您不希望 Resnet 进行训练而只需要输出,因此您可以执行以下操作来避免 TimeDistributed
层。
代替 model.add(TimeDistributed(base_model, input_shape=(15, 244, 244, 3)))
,做
# 2048 is the output size
model.add(
Lambda(
lambda x: tf.reshape(base_model(tf.reshape(x, [-1, 244, 244,3])),[-1, 15, 2048])
, input_shape=(15, 244, 244, 3))
)
如果您不想过多依赖输出形状(虽然这会牺牲性能)。
model.add(
Lambda(
lambda x: tf.stack([base_model(xx) for xx in tf.unstack(x, axis=1) ], axis=1)
, input_shape=(15, 244, 244, 3))
)
关于conv-neural-network - Tensorflow 2.0 中 KerasLayer 的 TimeDistributed,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59970196/
我编写了以下脚本,用于读取 CNN-RNN-FCN NN 架构的 yaml 规范并构建相应的 Keras 模型: #!/usr/bin/env python3 # -*- coding: utf-8
我有一个预训练模型,其中包含多个具有不同形状的输入。所以我可以在具有匹配形状的新输入上调用模型,如下所示: new_output = model([input_1, input2]) 与 input_
来自 keras docs : 然后,您可以使用 TimeDistributed 将 Dense 层独立应用于 10 个时间步长中的每一个: # as the first layer in a mod
举例来说,我有一个输入,其中包含2张图像,总形状为(2,299,299,3)。我正在尝试在每个图像上应用inceptionv3,然后随后使用LSTM处理输出。我正在使用 mask 层将空白图像排除在处
我有一个简单的序列模型,使用 TimeDistributed(Dense...) 作为 LSTM 层之后的最后一层。我正在以 20 个时间步长的顺序训练时间序列数据。损失函数是Mean Absolut
BatchNormalization 和 TimeDistributed(BatchNormalization) 是否对顺序数据(例如视频)有相同的影响?如果不是有什么区别? 最佳答案 在 tf.ke
我正在尝试使以下代码行正常工作: low_encoder_out = TimeDistributed( AutoregressiveDecoder(...) )([X_tf, embeddings])
我目前正在使用 Keras 开发 LSTM,并且对 TimeDistributed 层有疑问。 假设我有一个 TimeDistributed 层,它接受诸如 (batch_size,timesteps
我试图了解 TimeDistributed 层在 keras/tensorflow 中的使用。我已经阅读了一些主题和文章,但仍然没有正确理解。 让我对 TImeDistributed 层的作用有一些了
我已经完成了 official documentation但仍然无法理解 TimeDistributed 作为 Keras 模型中的层实际上做了什么? 我无法理解 TimeDistributed 和
我正在尝试了解 TimeDistributed 包装器在 Keras 中的作用。 我知道 TimeDistributed “将一个层应用于输入的每个时间切片。” 但是我做了一些实验,得到了我无法理解的
我创建了一个 CNN-LSTM 用于网络 session 的生存预测,我的训练数据如下所示: print(x_train.shape) (288, 3, 393) 使用(样本、时间步长、特征)和我的模
我的输入状态形状= (84,84,4) state = Input(shape=(84,84,4), dtype="float") 所以我想将其传递给时间步长大小=1..5(范围为1到5)的某个Tim
这是我的问题,我想在 TimeDistributed 层中使用预训练 CNN 网络之一。但是我在实现它时遇到了一些问题。 这是我的模型: def bnn_model(max_len): # s
我知道这个主题有很多问题,但我不明白为什么在我的情况下这两种选择都是可能的。我在 LSTM 中的输入形状是 (10,24,2),我的 hidden_size 是 8。 model = Sequen
这是我的尝试: inputs = Input(shape=(config.N_FRAMES_IN_SEQUENCE, config.IMAGE_H, config.IMAGE_W, config.N_
我正在尝试更好地理解 Keras 层。我正在研究一个序列到序列模型,我在其中嵌入一个句子并将其传递给返回序列的 LSTM。此后,我想将 Dense 层应用于句子中的每个时间步长(单词),并且 Time
抱歉,我是 RNN 的新手。我读过this post在 TimeDistributed 层上。 我已将数据 reshape 为 Keras 要求的 [samples, time_steps, feat
我一直在尝试对 machinelearningmastery 中显示的 LSTM 模型的输出实现注意力包装器教程: from numpy import array from keras.models
我正在尝试构建一个可以在音频和视频样本上进行训练的模型,但出现此错误 ValueError:请使用“Layer”实例初始化“TimeDistributed”层。您传递了:Tensor("input_1
我是一名优秀的程序员,十分优秀!