gpt4 book ai didi

使用 tf.nn.dynamic_rnn 展开时间维度方式

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 25 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章使用 tf.nn.dynamic_rnn 展开时间维度方式由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

对于单个的 RNNCell , 使用色的 call 函数进行运算时 ,只是在序列时间上前进了一步 .

如使用 x1、 ho 得到此h1, 通过 x2 、 h1 得到 h2 等 .

 tf.nn.dynamic_rnn的作用:

如果序列长度为n,要调用n次call函数,比较麻烦。对此,TensorFlow提供了一个tf.nn.dynamic_mn函数,使用该函数相当于调用了n次call函数。通过{ho, x1 , x2,…, xn} 直接得到{h1 , h2,…, hn} .

具体来说,设输入数据的格式为(batch_size, time_steps, input size), 。

其中batch_size表示batch的大小,即包含几个序列.

time_steps表示序列长度, 。

input_size表示输入数据单个序列单个时间维度上固有的长度.

使用 tf.nn.dynamic_rnn 展开时间维度方式

此时,得到的outputs是time_steps步里所有的输出。它的形状为(batch_size, time_steps, cell.output size)。state 是最后一步的隐状态,形状为(batch_size, cell . state_size) .

至此,在对每一步的输出进行变换,可以得到损失并进行训练模型了.

以上这篇使用 tf.nn.dynamic_rnn 展开时间维度方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.

原文链接:https://blog.csdn.net/DeepOscar/article/details/81123002 。

最后此篇关于使用 tf.nn.dynamic_rnn 展开时间维度方式的文章就讲到这里了,如果你想了解更多关于使用 tf.nn.dynamic_rnn 展开时间维度方式的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com