gpt4 book ai didi

python - TensorFlow 2.x : Cannot load trained model in h5 format when using embedding columns (ValueError: Shapes (101, 15) 和 (57218, 15) 不兼容)

转载 作者:行者123 更新时间:2023-12-04 03:56:24 25 4
gpt4 key购买 nike

经过长时间的来回,我设法保存了我的模型(参见我的问题 TensorFlow 2.x: Cannot save trained model in h5 format (OSError: Unable to create link (name already exists)))。但是现在我在加载保存的模型时遇到了问题。首先,我通过加载模型得到以下错误:

ValueError: You are trying to load a weight file containing 1 layers into a model with 0 layers.
将顺序更改为功能 API 后,我收到以下错误:
ValueError: Cannot assign to variable dense_features/NAME1W1_embedding/embedding_weights:0 due to variable shape (101, 15) and value shape (57218, 15) are incompatible
我尝试了不同版本的 TensorFlow。我在 tf-nightly 版本中收到了描述的错误。在 2.1 版中,我得到了一个非常相似的错误:
ValueError: Shapes (101, 15) and (57218, 15) are incompatible.
在 2.2 和 2.3 版本中,我什至无法保存我的模型(如我之前的问题所述)。
下面是函数式API的相关代码:
def __loadModel(args):
filepath = args.loadModel

model = tf.keras.models.load_model(filepath)

print("start preprocessing...")
(_, _, test_ds) = preprocessing.getPreProcessedDatasets(args.data, args.batchSize)
print("preprocessing completed")

_, accuracy = model.evaluate(test_ds)
print("Accuracy", accuracy)



def __trainModel(args):
(train_ds, val_ds, test_ds) = preprocessing.getPreProcessedDatasets(args.data, args.batchSize)

for bucketSizeGEO in args.bucketSizeGEO:
print("start preprocessing...")
feature_columns = preprocessing.getFutureColumns(args.data, args.zip, bucketSizeGEO, True)
#Todo: compare trainable=False to trainable=True
feature_layer = tf.keras.layers.DenseFeatures(feature_columns, trainable=False)
print("preprocessing completed")


feature_layer_inputs = preprocessing.getFeatureLayerInputs()
feature_layer_outputs = feature_layer(feature_layer_inputs)
output_layer = tf.keras.layers.Dense(1, activation=tf.nn.sigmoid)(feature_layer_outputs)

model = tf.keras.Model(inputs=[v for v in feature_layer_inputs.values()], outputs=output_layer)

model.compile(optimizer='sgd',
loss='binary_crossentropy',
metrics=['accuracy'])

paramString = "Arg-e{}-b{}-z{}".format(args.epoch, args.batchSize, bucketSizeGEO)


log_dir = "logs\\logR\\" + paramString + datetime.datetime.now().strftime("%Y%m%d-%H%M%S")
tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir=log_dir, histogram_freq=1)


model.fit(train_ds,
validation_data=val_ds,
epochs=args.epoch,
callbacks=[tensorboard_callback])


model.summary()

loss, accuracy = model.evaluate(test_ds)
print("Accuracy", accuracy)

paramString = paramString + "-a{:.4f}".format(accuracy)

outputName = "logReg" + datetime.datetime.now().strftime("%Y%m%d-%H%M%S") + paramString



if args.saveModel:
for i, w in enumerate(model.weights): print(i, w.name)

path = './saved_models/' + outputName + '.h5'
model.save(path, save_format='h5')

对于相关的预处理部分,请参阅本问题开头提到的问题。 for i, w in enumerate(model.weights): print(i, w.name)返回以下内容:
0 dense_features/NAME1W1_embedding/embedding_weights:0
1 dense_features/NAME1W2_embedding/embedding_weights:0
2 dense_features/STREETW_embedding/embedding_weights:0
3 dense_features/ZIP_embedding/embedding_weights:0
4 dense/kernel:0
5 dense/bias:0

最佳答案

这个问题是由于训练和预测中嵌入矩阵的维度不一致造成的。
通常,在我们使用嵌入矩阵之前,我们会形成一个字典。这里暂时把这个字典叫做word_index。 如果代码作者不细心,会导致训练和预测两个word_index不同(因为训练和预测使用的数据不同),embedding matrix的维数发生变化。
从你的bug中可以看到,训练时得到len(word_index)+1是57218,预测时得到len(word_index)+1是101。
如果我们想正确运行代码,当需要使用word_index的预测时,我们不能在预测的时候重新生成一个word_index。所以解决这个问题最简单的办法就是保存你训练时得到的word_index,在预测的时候调用,这样我们就可以正确加载我们在训练中得到的权重。

关于python - TensorFlow 2.x : Cannot load trained model in h5 format when using embedding columns (ValueError: Shapes (101, 15) 和 (57218, 15) 不兼容),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63810835/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com