gpt4 book ai didi

tensorflow - TensorFlow MNIST 教程中的 keep_prob

转载 作者:行者123 更新时间:2023-12-04 02:55:07 26 4
gpt4 key购买 nike

我无法理解 the Deep MNIST for Experts tutorial 中的以下代码.

train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})

的目的是什么keep_prob: 0.5 运行时 train_step ?

最佳答案

keep_prob值用于控制dropout rate在训练神经网络时使用。本质上,这意味着层之间的每个连接(在这种情况下是在最后一个密集连接层和读出层之间)将仅以 0.5 的概率使用。训练时。这减少了过拟合。更多关于dropout理论的信息,可以看原文paper by Srivastava et al .要了解如何在 TensorFlow 中使用它,请参阅 tf.nn.dropout() 上的文档。运算符(operator)。keep_prob值通过占位符输入,以便相同的图可用于训练(使用 keep_prob = 0.5 )和评估(使用 keep_prob = 1.0 )。处理这些情况的另一种方法是为训练和评估构建不同的图表:查看当前 convolutional.py 中 dropout 的使用。以模型为例。

关于tensorflow - TensorFlow MNIST 教程中的 keep_prob,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35545798/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com