gpt4 book ai didi

python - CNN 对猫/狗图像二元分类的准确度并不比随机分类好

转载 作者:行者123 更新时间:2023-11-30 09:31:17 28 4
gpt4 key购买 nike

我根据Analytics Vidhya上的教程改编了一个简单的CNN .

问题是我在保留集上的准确性并不比随机的更好。我正在训练大约 8600 张猫和狗的图像,这对于像样的模型来说应该是足够的数据,但测试集的准确率为 49%。我的代码中是否有明显的遗漏?

import os
import numpy as np
import keras
from keras.models import Sequential
from sklearn.model_selection import train_test_split
from datetime import datetime
from PIL import Image
from keras.utils.np_utils import to_categorical
from sklearn.utils import shuffle


def main():

cat=os.listdir("train/cats")
dog=os.listdir("train/dogs")
filepath="train/cats/"
filepath2="train/dogs/"

print("[INFO] Loading images of cats and dogs each...", datetime.now().time())
#print("[INFO] Loading {} images of cats and dogs each...".format(num_images), datetime.now().time())
images=[]
label = []
for i in cat:
image = Image.open(filepath+i)
image_resized = image.resize((300,300))
images.append(image_resized)
label.append(0) #for cat images

for i in dog:
image = Image.open(filepath2+i)
image_resized = image.resize((300,300))
images.append(image_resized)
label.append(1) #for dog images

images_full = np.array([np.array(x) for x in images])

label = np.array(label)
label = to_categorical(label)

images_full, label = shuffle(images_full, label)

print("[INFO] Splitting into train and test", datetime.now().time())
(trainX, testX, trainY, testY) = train_test_split(images_full, label, test_size=0.25)


filters = 10
filtersize = (5, 5)

epochs = 5
batchsize = 32

input_shape=(300,300,3)
#input_shape = (30, 30, 3)

print("[INFO] Designing model architecture...", datetime.now().time())
model = Sequential()
model.add(keras.layers.InputLayer(input_shape=input_shape))
model.add(keras.layers.convolutional.Conv2D(filters, filtersize, strides=(1, 1), padding='same',
data_format="channels_last", activation='relu'))
model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))
model.add(keras.layers.Flatten())

model.add(keras.layers.Dense(units=2, input_dim=50,activation='softmax'))
#model.add(keras.layers.Dense(units=2, input_dim=5, activation='softmax'))

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

print("[INFO] Fitting model...", datetime.now().time())
model.fit(trainX, trainY, epochs=epochs, batch_size=batchsize, validation_split=0.3)

model.summary()

print("[INFO] Evaluating on test set...", datetime.now().time())
eval_res = model.evaluate(testX, testY)
print(eval_res)

if __name__== "__main__":
main()

最佳答案

对我来说,问题来自于你的网络的大小,你只有一个过滤器大小为 10 的 Conv2D。这太小了,无法学习图像的深度表示。

尝试通过使用 VGGnet 等常见架构 block 来大幅增加这一点!
block 示例:

x = Conv2D(32, (3, 3) , padding='SAME')(model_input)
x = LeakyReLU(alpha=0.3)(x)
x = BatchNormalization()(x)
x = Conv2D(32, (3, 3) , padding='SAME')(x)
x = LeakyReLU(alpha=0.3)(x)
x = BatchNormalization()(x)
x = MaxPooling2D(pool_size=(2, 2))(x)
x = Dropout(0.25)(x)

您需要尝试多个类似的 block ,并增加过滤器大小以捕获更深层次的特征。

另一件事,你不需要指定密集层的 input_dim,keras 会自动处理这个!

最后但并非最不重要的一点是,您需要完全连接的网络才能正确分类图像,而不仅仅是单层。

例如:

x = Flatten()(x)
x = Dense(256)(x)
x = LeakyReLU(alpha=0.3)(x)
x = Dense(128)(x)
x = LeakyReLU(alpha=0.3)(x)
x = Dense(2)(x)
x = Activation('softmax')(x)

尝试这些更改并与我保持联系!

在运算符(operator)提出问题后更新

图像很复杂,它们包含很多信息,如形状、边缘、颜色等

为了捕获最大量的信息,您需要通过多个卷积来学习图像的不同方面。想象一下,例如第一个卷积将学习识别正方形,第二个卷积将学习识别圆形,第三个卷积将学习识别边缘,等等..

对于我的第二点,最终的全连接就像一个分类器,转换网络将输出一个“代表”狗或猫的向量,现在你需要知道这种向量是一类还是另一种。
直接在最后一层输入该向量不足以学习这种表示。

这样是不是更清楚了?

运算符(operator)第二条评论的最新更新

这里定义 Keras 模型的两种方法,都输出相同的内容!

model_input = Input(shape=(200, 1))
x = Dense(32)(model_input)
x = Dense(16)(x)
x = Activation('relu')(x)
model = Model(inputs=model_input, outputs=x)




model = Sequential()
model.add(Dense(32, input_shape=(200, 1)))
model.add(Dense(16, activation = 'relu'))

架构示例

model = Sequential()
model.add(keras.layers.InputLayer(input_shape=input_shape))
model.add(keras.layers.convolutional.Conv2D(32, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.convolutional.Conv2D(32, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))

model.add(keras.layers.convolutional.Conv2D(64, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.convolutional.Conv2D(64, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))

model.add(keras.layers.Flatten())

model.add(keras.layers.Dense(128, activation='relu'))
model.add(keras.layers.Dense(2, activation='softmax'))

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

不要忘记在将数据输入网络之前对数据进行标准化。

对数据进行简单的 images_full = images_full/255.0 可以大大提高您的准确性。
也尝试一下灰度图像,它的计算效率更高。

关于python - CNN 对猫/狗图像二元分类的准确度并不比随机分类好,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56973955/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com