gpt4 book ai didi

python - 在 Keras 序列中的特定索引处连接两个不同维度的输入

转载 作者:行者123 更新时间:2023-11-30 09:15:49 24 4
gpt4 key购买 nike

我正在尝试使用两种类型的嵌入层来训练 LSTM。假设以下是我的标记化句子:

tokenized_sentence = ['I', 'am', 'trying', 'to', 'TARGET_TOKEN', 'my', 'way', 'home']

现在,对于“TARGET_TOKEN”周围的单词,我有一个嵌入层,其大小为 (vocab_size x 128),而对于索引 4 处的标记“TARGET_TOKEN”,我有一个嵌入层,其大小为 (vocab_size x 512)。因此,我需要将 TARGET_TOKEN 嵌入从 512 转换为 128,然后将这个 128 维向量插入到周围单词嵌入层输出的索引 4 处(该索引将根据特征而变化),然后将此串联列表(张量)输入到LSTM。在我的情况下,单词/标记的位置非常重要,因此我不希望丢失标记“TARGET_TOKEN”在句子中的位置。

最初我正在研究如何减少 512 个嵌入的大小,我发现使用 numpy 我可以取每 4 个相邻向量的平均值,因此我最终从 512 维减少到 128 维。然而,据我了解,这可能不再以正确的方式表示向量。

我们将标记“TARGET_TOKEN”称为“target_token”,将其余单词称为“context_tokens”。因此,在进一步阅读之后,我认为可以获取 target_token 嵌入层的输出,并将其传递到具有 128 个单元的密集层(从而将其大小减小到 128)。接下来,我将把 Dense 层的输出与 context_tokens 嵌入层的输出连接起来。到目前为止我知道该怎么做。我的问题是定位很重要,而且我的 LSTM 学习 target_token 相对于其周围上下文的嵌入也很重要。长话短说,我需要在索引 4 处连接(也许我以错误的方式看待这个问题,但这就是我的理解方式)。

但是Keras中的连接层没有这样的参数,我只能连接两个层而不考虑定位。

我的模型将接受三个输入:

input1 = target_token
input2 = context_tokens
input3 = target_token_index

和一个输出(作为一个序列)。

我的代码如下所示:

target_token_input = Input((1,))
sentence_input = Input((None,))
index_input = Input((1,), dtype="int32")

target_token_embedding_layer = Embedding(500, 512, weights=[], trainable=False)(target_token_input)

target_token_dense_layer = Dense(128, activation="relu")(target_token_embedding_layer)

context_embedding_layer = Embedding(self.vocab_size, 128, weights=[self.weight_matrix],
trainable=False)(sentence_input)

concatenation_layer = Concatenate()([target_token_dense_layer, context_embedding_layer])

bidirectional = Bidirectional(LSTM(64, return_sequences=self.return_sequences, dropout=0.2, recurrent_dropout=0.2))(concatenation_layer)

normalization_layer = BatchNormalization()(bidirectional)

output_layer = TimeDistributed(Dense(self.output_size, activation=self.activation))(normalization_layer)

model = Model([target_token_input, sentence_input, index_input],[output_layer])

我的预期结果应该如下,这里的数字代表标记向量的维度。

original_tokens = ['I', 'am', 'trying', 'to', 'eng-12345', 'my', 'way', 'home']
vector_original_tokens = [128, 128, 128, 128, 512, 128, 128, 128]
post_concatenation_tokens = [128, 128, 128, 128, 128, 128, 128, 128]

注意索引 4 处的嵌入如何从 512 变为 128。我正在研究将张量转换为列表的可能性,将 target_token_embedding_layer 的输出插入到此列表中所需的索引处,然后将列表转换回张量并使用该张量作为 LSTM 的输入。不过,我仍在尝试解决这个问题。

有人知道该怎么做吗?任何帮助将不胜感激!

最佳答案

嗯,简短的回答是你不能。您可以通过编程方式完成此操作,其中事情看起来就像您希望的那样,但 Keras LSTM 无法理解它。 Keras LSTM 需要理解 token 之间的联系。当您从一个“宇宙”获取嵌入列表并尝试将其与另一个“宇宙”的嵌入混合时,事情就是行不通。

您必须将所有单词标记化/嵌入到相同的维度中才能正常工作。我假设 TARGET_TOKEN 与字典的其余部分相比具有不同的嵌入(512)?您可以创建一个新的嵌入,即 (128+512)。然而,既然你提到你将原来的 512 个嵌入减少到了 128 个,我的建议是你应该回到 512 个嵌入。

请注意我是如何提到 Keras LSTM 的:我所理解的是针对具有标准 4 个门的常见、众所周知的 LSTM 层。如果您正在从头开始编写自己的 LSTM 层变体(例如使用 Tensorflow 或 numpy),那么所有的赌注都将落空。

我猜您正在尝试建立某种填补空白的网络?您从 512 个嵌入切换到 128 个嵌入的原因是什么?节省内存?

关于python - 在 Keras 序列中的特定索引处连接两个不同维度的输入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56150174/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com