gpt4 book ai didi

python - 自动编码器 : accuracy & number of images

转载 作者:太空宇宙 更新时间:2023-11-03 14:05:15 27 4
gpt4 key购买 nike

我正在使用 Python、Tensorflow 和 Keras 在 450x450 RGB watch 正面图像上运行自动编码器(例如 watch_1 )。我的目标是使用自动编码器生成的这些图像的编码表示,并比较它们以找到其中最相似的 watch 。目前,我使用 1500 个 RGB 图像,因为我还没有 GPU,只有一台具有 26BG RAM 的电脑。

我的源代码如下:

from keras.layers import Input, Dense
from keras.models import Model
import cv2
import numpy as np
from sklearn import preprocessing
from glob import glob
import sys

data = []
number = 1500
i = 0
for filename in glob('Watches/*.jpg'):
img = cv2.imread(filename)
height, width, channels = img.shape

# Transpose images to one line
if height == 450 and width == 450:
img = np.concatenate(img, axis=0)
img = np.concatenate(img, axis=0)
data.append(img)
else:
print('These are not the correct dimensions')

i = i + 1
if i > number:
break

# Normalise data
data = np.array(data)
Norm = preprocessing.Normalizer()
Norm.fit(data)
data = Norm.transform(data)

# Size of our encoded representations
encoding_dim = 250

# Input placeholder
input_img = Input(shape=(width * height * channels,))
# Encoded representation of the input
encoded = Dense(encoding_dim, activation='relu')(input_img)
# Lossy reconstruction of the input
decoded = Dense(width * height * channels, activation='sigmoid')(encoded)

# Autoencoder model in all
autoencoder = Model(input_img, decoded)

# Compile the model
autoencoder.compile(optimizer='adadelta', loss='binary_crossentropy', metrics=['accuracy'])
print(autoencoder.summary())

# Train the model
length = len(data)
data_train = data[:int(0.7*length)]
data_test = data[(int(0.7*length) + 1):]

autoencoder.fit(data_train, data_train, epochs=10, batch_size=50, shuffle=True, validation_data=(data_test, data_test))

我得到了以下简要结果:

Epoch 1/10
loss: 0.6883 - acc: 0.0015 - val_loss: 0.6883 - val_acc: 0.0015

Epoch 2/10
loss: 0.6883 - acc: 0.0018 - val_loss: 0.6883 - val_acc: 0.0018

# I omit the other epochs for the sake of brevity

Epoch 10/10
loss: 0.6883 - acc: 0.0027 - val_loss: 0.6883 - val_acc: 0.0024

准确率很低。

这是因为我使用的图像数量相对较少还是因为我的源代码有问题?

如果问题是图像数量,那么需要多少图像才能达到 > 80% 的准确率?

最佳答案

因此,在阅读您评论的博客文章后,我想详细说明我的答案。您的实现实际上是正确的,但您不想单独评估自动编码器本身。

自动编码器被认为是降维过程,因此无论自动编码器生成什么输出,总是有损的。您可以通过将自动编码器作为一个层添加到实际执行分类的神经网络中来评估自动编码器的工作效果。发生的情况是有损表示成为后续神经网络的“输入”。在后续的神经网络中,您希望使用 softmax 激活作为最后一层。然后您可以评估神经网络的准确性。

将自动编码器视为降维的预处理步骤,类似于主成分分析。

model = Sequential()
model.add(autoencoder.layers[1]) # here is where you add your autoencoder
model.add(Dense(10, activation='softmax')) # assumes 10 watch classes
model.compile(optimizer='adadelta', loss='categorical_crossentropy', metrics=['accuracy'])

关于python - 自动编码器 : accuracy & number of images,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48946687/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com