- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
再见,
这是我面临的 CNN 1d 问题的第二部分。第一部分是这个
How does it works the input_shape variable in Conv1d in Keras?
我正在使用这段代码:
from keras.models import Sequential
from keras.layers import Dense, Conv1D
import numpy as np
N_FEATURES=5
N_TIMESTEPS=10
X = np.random.rand(100, N_FEATURES)
Y = np.random.randint(0,2, size=100)
model = Sequential()
model.add(Conv1D(filters=32, kernel_size=N_TIMESTEPS, activation='relu', input_shape=(N_TIMESTEPS, N_FEATURES)))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
现在,我想做什么?
I want to train a CNN 1d over a timeseries with 5 features. Actually I want to work with time windows og length N_TIMESTEPS rather than timeserie it self. This means that I want to use a sort of "magnifier" of dimension N_TIMESTEPS x N_FEATURES on the time series to work locally. That's why I've decided to use CNN
第一个问题来了。由于我指定了 kernel_size 变量,所以完全不清楚我是否必须将时间序列转换为张量,或者这是 Keras 会为我做的事情。
如果我必须提供一个张量,我会这样做:
X_tensor = []
for i in range(len(X)-N_TIMESTEPS):
X_tensor+=[X_tensor[range(i, N_TIMESTEPS+i), :]]
X_tensor = np.asarray(X_tensor)
当然,在这种情况下,我还应该提供根据某些标准从 Y 计算出的 Y_tensor 向量。假设我已经有了与 X_tensor 相同长度的 Y_tensor bool 向量,即 len(X)-N_TIMESTEPS-1。
Y_tensor = np.random.randint(0,2,len(X)-N_TIMESTEPS-1)
现在,如果我尝试为模型提供数据,我会遇到 CNN 1d 最常见的错误,即:
ValueError: Error when checking input: expected conv1d_4_input to have 3 dimensions, but got array with shape (100, 5)
看了十几个关于它的帖子,我无法理解我做错了什么。这是我试过的:
model.fit(X,Y)
model.fit(np.expand_dims(X, axis=0),Y)
model.fit(np.expand_dims(X, axis=2),Y)
model.fit(X_tensor,Y_tensor)
对于所有这些情况,我总是得到相同的错误(在最终元组中具有不同的维度值)。
问题:
What Keras expects from my data? Can I feed the model with the whole time series or I have to slice it into a tensor?
How I have to feed the model in term of data structure?I.e. I have to specify in some strange way the dimension of the data?
你能帮帮我吗?我发现这是 Keras 中 CNN 实现最令人困惑的地方之一,不同的帖子有不同的解决方案,不符合我的数据结构(即使根据我的说法,它们具有非常常见的结构)。
注意:有些帖子建议将数据的长度传入input_shape变量。这对我来说毫无意义,因为我不应该向模型提供数据的维度(这是一个变量)。根据理论,我唯一应该给它的是过滤器维度和特征数量(即将在时间序列上滚动的矩阵的维度)。
谢谢,
我是
最佳答案
简单地说,Conv1D
需要 3 个维度:
因此,model.fit(np.expand_dims(X, axis=0),Y)
对于 X
是正确的。
现在,如果 X
是 (1, 100, 5)
,自然是您的 input_shape=(100,5)
。
如果您的 Y
有 100 步,那么您需要确保您的 Conv1D
将输出 100 步。你需要padding='same'
,否则会变成91
。 (我建议你实际使用 91,因为你想要每 10 步的结果并且可能不希望边界效应破坏你的结果)
Y
也必须遵循相同的形状规则:
padding='same'
则为 100;如果 padding='valid'
则为 91)所以,Y = Y.reshape((1,-1,1))
。
因为您只有一个类别(真/假),所以使用'categorical_crossentropy'
毫无意义。您应该使用 'binary_crossentropy'
。
一般来说,您使用这个卷积与 kernel_size=10
来模拟 10 步的滑动窗口的总体想法将按预期工作(它是否有效是另一个问题,只能由尝试)。
如果您想要更好的序列网络,您可能应该尝试 LSTM
层。尺寸的工作方式完全相同。您将需要 return_sequences=False
。
主要区别在于您需要像在该循环中那样分离数据。然后:
X.shape == (91, 10, 5)
Y.shape == (91, 1)
关于python - 关于如何在 Keras 中构建 CNN 1D 的正确而明确的解释,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57558538/
R-CNN、fast R-CNN、faster R-CNN 和 YOLO 在以下方面有什么区别: (1) 同一图像集上的精度 (2) 给定 SAME IMAGE SIZE,运行时间 (3) 支持安卓移
我试图比较 CNN 模型和组合 CNN-SVM 模型进行分类的准确性结果。然而我发现 CNN 模型比 CNN-SVM 组合模型具有更好的准确性。这是正确的还是可能发生? 最佳答案 这取决于很多因素,但
我知道这可能是一个愚蠢的问题,但我对机器学习和人工神经网络有点陌生。 深度卷积神经网络和密集卷积神经网络有什么区别吗? 提前致谢! 最佳答案 密集 CNN 是深度 CNN 的一种,其中每一层都与比自身
我正在使用预训练的 CNN 从图片中提取特征。使用这些特征作为新 CNN/NN 的输入有意义吗?以前做过吗?我很高兴得到答复。 最佳答案 这称为微调。这是非常常用的。通常,我们会删除 VGG 或类似网
与 caffe 合作几个月后,我已经能够成功地训练我自己的模型。例如,比我自己的模型更进一步,我已经能够用 1000 个类来训练 ImageNet。 现在在我的项目中,我试图提取我感兴趣的区域。之后我
我正在使用下面的 LeNet 架构来训练我的图像分类模型,我注意到每次迭代都不会提高训练和验证的准确性。这方面的任何专家都可以解释可能出了什么问题吗? 训练样本 - 属于 2 个类别的 110 张图像
我使用剩余连接实现了以下 CNN,用于在 CIFAR10 上对 10 个类进行分类: class ConvolutionalNetwork(nn.Module): def __init__(se
我有一组二维输入数组 m x n即 A,B,C我必须预测两个二维输出数组,即 d,e我确实有预期值。如果您愿意,您可以将输入/输出视为灰色图像。 由于空间信息是相关的(这些实际上是 2D 物理域)我想
我正在开发一个交通跟踪系统,该系统可以分析已经收集的视频。我正在使用opencv,线程,pytorch和dectron2。为了加快从opencv抓帧的速度,我决定使用Thread,该线程运行一个循环,
我正在解决一个问题,需要我构建一个深度学习模型,该模型必须基于某些输入图像输出另一个图像。值得注意的是,这两个图像在概念上是相关的,但它们没有相同的尺寸。 起初我认为具有最终密集层(其参数是输出图像的
我正在制作一个卷积网络来预测 3 类图像:猫、狗和人。我训练了又训练它,但是当我传递猫图像来预测时,它总是给出错误的输出。我尝试了其他猫的照片,但结果没有改变。对于人和狗来说没有问题,只是对于猫来说。
我接到一项任务,要实现一个卷积神经网络,该网络可以评估 MNIST dataset 中找到的手写数字。网络架构如下所示: 我已经实现了一个与架构相匹配的 CNN,不幸的是它的准确率只有 10% 左右。
我正在尝试在 Keras 中重新创建 CNN 来对点云数据进行分类。 CNN 在 this 中描述。纸。 网络设计 这是我当前的实现: inputs = Input(shape=(None, 3))
我想为有 300 个类的数据集设计 CNN。我已经用以下模型对两个类(class)进行了测试。它具有良好的准确性。 model = Sequential([ Conv2D(16, 3, padding
我成功训练了 CNN 模型,但是当我向模型提供图像以使其预测标签时,出现错误。 这是我的模型(我正在使用 saver.restore 恢复它)... # load dataset mnist = in
我恢复了用于人脸检测的预训练模型,该模型一次获取单个图像并返回边界框。如果这些图像具有不同的尺寸,如何才能获取一批图像? 最佳答案 您可以使用tf.image.resize_images方法来实现这一
我有大约 8200 张图像用于人脸检测任务。其中 4800 个包含人脸。其他 3400 张图像包含 3D 人脸面具(由橡胶/ latex 制成)、卡通人脸、猴子脸的图像。我想检测给定的图像是否包含真实
我有一组合成噪声图像。示例如下: 我还有它们相应的干净文本图像作为我的地面实况数据。下面的例子: 两个图像的尺寸为4918 x 5856。它的大小是否适合训练我的执行图像去噪的卷积神经网络?如果没有,
大家好! 由于我正在尝试制作一个将灰度图像转换为 RGB 图像的全卷积神经网络,所以我想知道是否可以在不同大小的图像(不同的像素和比率)上训练和测试模型。通常你只会下采样或上采样,这是我不想做的。我听
我正在研究 CNN 特征的早期和晚期融合。我从 CNN 的多层中获取了特征。对于早期融合,我捕获了三个不同层的特征,然后水平连接它们 F= [F1' F2' F3']; 对于后期融合,我正在阅读此 p
我是一名优秀的程序员,十分优秀!