gpt4 book ai didi

tensorflow - 如何在具有 LSTM 层的 tensorflow 集线器中使用嵌入模型?

转载 作者:行者123 更新时间:2023-12-04 04:05:43 27 4
gpt4 key购买 nike

我正在学习使用 TF hub 教程进行文本分类的 tensorflow 2。它使用了 TF hub 的嵌入模块。我想知道是否可以修改模型以包含 LSTM 层。这是我尝试过的:

train_data, validation_data, test_data = tfds.load(
name="imdb_reviews",
split=('train[:60%]', 'train[60%:]', 'test'),
as_supervised=True)
embedding = "https://tfhub.dev/google/tf2-preview/gnews-swivel-20dim/1"
hub_layer = hub.KerasLayer(embedding, input_shape=[],
dtype=tf.string, trainable=True)

model = tf.keras.Sequential()
model.add(hub_layer)
model.add(tf.keras.layers.Embedding(10000, 50))
model.add(tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(64)))
model.add(tf.keras.layers.Dense(64, activation='relu'))
model.add(tf.keras.layers.Dense(1))
model.summary()

model.compile(optimizer='adam',
loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
metrics=['accuracy'])

history = model.fit(train_data.shuffle(10000).batch(512),
epochs=10,
validation_data=validation_data.batch(512),
verbose=1)

results = model.evaluate(test_data.batch(512), verbose=2)

for name, value in zip(model.metrics_names, results):
print("%s: %.3f" % (name, value))
我不知道如何从 hub_layer 获取词汇量。所以我只放了10000。运行它时,它会抛出此异常:
tensorflow.python.framework.errors_impl.InvalidArgumentError:  indices[480,1] = -6 is not in [0, 10000)
[[node sequential/embedding/embedding_lookup (defined at .../learning/tensorflow/text_classify.py:36) ]] [Op:__inference_train_function_36284]

Errors may have originated from an input operation.
Input Source operations connected to node sequential/embedding/embedding_lookup:
sequential/embedding/embedding_lookup/34017 (defined at Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/contextlib.py:112)

Function call stack:
train_function
我卡在这里。我的问题是:
  • 我应该如何使用 TF hub 的嵌入模块来提供 LSTM 层?看起来嵌入查找的设置存在一些问题。
  • 如何从中心层获取词汇量?

  • 谢谢

    最佳答案

    终于找到了将预训练嵌入链接到 LSTM 或其他层的方法。只需在此处发布步骤,以防有人觉得有帮助。
    嵌入层必须是模型中的第一层。 (hub_layer 与 Embedding 层相同。)不太直观的部分是任何输入到 hub 层的文本都将仅转换为一个形状为 [embedding_dim] 的向量。您需要进行句子拆分和标记化,以确保模型的任何输入都是数组形式的序列。例如,“让我们准备数据。”应转换为 [["let"],["us"],["prepare"], ["the"], ["data"]]。如果您使用批处理模式,您还需要填充序列。
    此外,如果您的训练标签是字符串,则需要将目标标记转换为 int。模型的输入是形状为 [batch, seq_length] 的字符串数组,中心嵌入层将其转换为 [batch, seq_length, embed_dim]。 (如果添加 LSTM 或其他 RNN 层,则该层的输出为 [batch, seq_length, rnn_units]。)输出密集层将输出文本索引而不是实际文本。文本索引以“tokens.txt”的形式存储在下载的 tfhub 目录中。您可以加载文件并将文本转换为相应的索引。否则你无法计算损失。

    关于tensorflow - 如何在具有 LSTM 层的 tensorflow 集线器中使用嵌入模型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62545134/

    27 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com