gpt4 book ai didi

python - 如何在tensorflow中的多个rnn层中设置不同的权重变量?

转载 作者:太空宇宙 更新时间:2023-11-03 15:18:27 25 4
gpt4 key购买 nike

嗨,我正在编写一个“多(输入)到多(输出)”rnn 代码来处理字符预测。为此,我将隐藏层参数设置如下。三个隐藏层,每个隐藏层有 100、200 和 300 个隐藏单元。

hidden layers= [100,200,300] 

我的代码是这样的。

# parameters.
hiddenLayers = [100,200,300]
timeStep = 20 # sequence length
inputDimension = 38 (# of English alphabet + symbols)
outputDimension = 38 (# of English alphabet + symbols)
input_x = tf.placeholder(tyf.float64, [None, timeStep, inputDimension])

# make weights
w1 = tf.get_variable("w1",[hiddenUnits[0],hiddenUnits[1] ],initializer=tf.random_normal_initializer())
w2 = tf.get_variable("w2",[hiddenUnits[1],hiddenUnits[2] ],initializer=tf.random_normal_initializer())
w3 = tf.get_variable("w3",[hiddenUnits[2],outputDimension ],initializer=tf.random_normal_initializer())
# make biases
b1 = tf.get_variable("b1",[hiddenUnits[1]], initializer=tf.constant_initializer(0.0))
b2 = tf.get_variable("b2",[hiddenUnits[2]], initializer=tf.constant_initializer(0.0))
b3 = tf.get_variable("b3",[outputDimension], initializer=tf.constant_initializer(0.0))

def cell_generator(hiddenUnits):
return rnn_cell = rnn.BasicLSTMCell(hiddenUnits, forget_bias=1.0)

rnn_cell = rnn.MultiRNNCell([cell_generator(_) for _ in hiddenLayers])
outputs, states = tf.nn.dynamic_rnn(rnn_cell, input_x, dtype=tf.float64)

现在我有 3 个隐藏层,每个隐藏层都有不同数量的隐藏单元。当我打印出“输出”和“状态”时,他们说这是这样的。 (我没有运行 session 。)

print(outputs)
Tensor("rnn/transpose:0", shape=(?, 20, 300), dtype=float64)

print(states)
(LSTMStateTuple(c=<tf.Tensor 'rnn/while/Exit_2:0' shape=(?, 100) dtype=float64>, h=<tf.Tensor 'rnn/while/Exit_3:0' shape=(?, 100) dtype=float64>),
LSTMStateTuple(c=<tf.Tensor 'rnn/while/Exit_4:0' shape=(?, 200) dtype=float64>, h=<tf.Tensor 'rnn/while/Exit_5:0' shape=(?, 200) dtype=float64>),
LSTMStateTuple(c=<tf.Tensor 'rnn/while/Exit_6:0' shape=(?, 300) dtype=float64>, h=<tf.Tensor 'rnn/while/Exit_7:0' shape=(?, 300) dtype=float64>))

我认为“输出”应该保存 3 个隐藏层的每个输出,但它只有最后一个隐藏层,所以我迷失了在哪里乘以第一个和第二个权重。所以现在我有疑问。

  1. 我可以使用包含 3 个隐藏层的“状态”变量,以便我可以乘以 3 个权重并向每个最后状态添加 3 个偏差。

例如...

hidden2 = tf.matmul(state[0],w1) + b1
hidden3 = tf.matmul(state[1],w2) + b2
final_output = tf.matmul(state[2],w3) + b3
# and do the loss calculation for training...
  • 有什么方法可以使用“输出”变量将权重和偏差应用到该单元格吗?

  • 或者还有其他替代方法可以使用我的权重和偏差吗?也许在前面的步骤中初始化权重和偏差(在将 basicRNNCell 扔到 MultiRNNcell 之前)?

  • 我真的想设置不同数量的隐藏层和单元,并使用我预先确定的权重和偏差参数应用它们。如果您有任何想法,请告诉我。

    提前致谢。

    最佳答案

    I thought that "output" should hold every output from 3 hidden layers but it has only last hidden layer so I got lost where to multiply 1st and 2nd weights. So now I have questions.

    通过在 3 个单元上调用 MultiRNNCell,您可以创建一个多层网络,其中每个单元都是一个单层(就像在正常的完全连接的网络中一样,您可以有多个层),并且每个层都会馈送到下一个,例如:

    input -> cell1 -> cell2 -> cell3 -> output

    因此 RNN 的输出是 cell3 的输出,因此是 (?, 20, 300) 形状。获得最终输出所需的唯一变量是 w3b3,例如

    final_output = tf.nn.softmax(tf.matmul(outputs, w3) + b3)

    它为您提供了类(class)的预测分布。

    关于python - 如何在tensorflow中的多个rnn层中设置不同的权重变量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43696892/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com