gpt4 book ai didi

machine-learning - CNN 在我的 Keras 数据集上效率不高

转载 作者:行者123 更新时间:2023-11-30 09:06:00 25 4
gpt4 key购买 nike

我正在研究一维数据的分类。我以 549 个数组的形式呈现数据,每个数组包含 600 个样本。我制作了一个多层感知器,其效率约为 80%。现在我正在尝试做CNN,但由于某种原因它的准确率不超过31%。可能出了什么问题?

我的模型:

model = Sequential()
model.add(Conv1D(filters=20, kernel_size=4,activation='relu',padding='same',input_shape=(600,1)))
model.add(MaxPooling1D(pool_size = 2))
model.add(Dropout(0.3))
model.add(Flatten())
model.add(Dense(50, activation='relu', input_dim = 600))
model.add(Dense(1, activation='softmax'))

model.compile(loss="binary_crossentropy", optimizer="nadam", metrics=['accuracy'])

model.fit(np.array(X), np.array(Y), epochs = 100, batch_size=8, verbose=1, validation_data=(np.array(X1),np.array(Y1)))

scores = model.evaluate(np.array(X1), np.array(Y1), verbose=0)

输入数据:

X1 = X[:90]
X = X[91:]
Y1 = Y[:90]
Y = Y[91:]
X = np.expand_dims(X, axis=2)
X1 =np.expand_dims(X1, axis=2)
print(np.array(X).shape)

获取尺寸(458,600,1)尺寸是否有问题?

最佳答案

改变

model.add(Dense(1, activation='softmax'))

model.add(Dense(1, activation='sigmoid'))

关于machine-learning - CNN 在我的 Keras 数据集上效率不高,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51749207/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com