- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
CuDNNGRU
在 TensorFlow 1.0
真的很快。但是当我转到 TensorFlow 2.0
时我找不到 CuDNNGRU
.简单 GRU
TensorFlow 2.0
真的很慢.
有什么办法可以使用CuDNNGRU
在 TensorFlow 2.0
?
最佳答案
可导入的实现已被弃用 - 相反,LSTM
和 GRU
将默认为 CuDNNLSTM
和 CuDNNGRU
如果全部conditions are met :
activation = 'tanh'
recurrent_activation = 'sigmoid'
recurrent_dropout = 0
unroll = False
use_bias = True
reset_after = True
(仅限 GRU)import tensorflow as tf
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
print('Default GPU Device: {}'.format(tf.test.gpu_device_name()))
!pip install tensorflow==2.1.0
反而。
关于python - tensorflow 2.0 中是否有 cudnnLSTM 或 cudNNGRU 替代方案,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60468385/
我正在使用 CudnnGRU来自 tensorflow.contrib.cudnn_rnn 的类(class),训练速度要快得多。但是,在训练后,我需要将模型移至不基于 CUDA 的系统。那么我该如何
我使用以下代码来实现标准 GRU: def BiRNN_deep_dynamic_FAST_FULL_autolength(x,batch_size,dropout,hidden_dim): seq_
我有一个在 TensorFlow 1.14 中使用(现已弃用)tf.keras.layers.CuDNNGRU 构建的经过训练的模型层(在 tf.compat.v1 中的 TensorFlow 2.0
通过将其值作为层的参数传递,可以将循环丢失应用于 Keras 中的基本 LSTM 或 GRU 层。 CuDNNLSTM 和 CuDNNGRU 是与 CUDA 兼容的 LSTM 和 GRU 层。主要优势
CuDNNGRU在 TensorFlow 1.0真的很快。但是当我转到 TensorFlow 2.0 时我找不到 CuDNNGRU .简单 GRU TensorFlow 2.0真的很慢. 有什么办法可
我是一名优秀的程序员,十分优秀!