gpt4 book ai didi

tensorflow - 非确定性梯度计算

转载 作者:行者123 更新时间:2023-12-04 00:09:22 25 4
gpt4 key购买 nike

我意识到,即使我将TensorFlow随机种子保持不变,每次训练它们的模型最终都会有所不同。

我确认:

  • 初始化是确定性的;第一次更新之前的权重是相同的。
  • 输入是确定性的。实际上,对于第一批产品,包括损失在内的各种正向计算都是相同的。
  • 第一批的梯度不同。具体来说,我正在比较tf.gradients(loss, train_variables)的输出。尽管losstrain_variables具有相同的值,但某些变量的梯度有时会有所不同。差异非常大(有时单个变量的梯度的绝对差异之和大于1)。

  • 我得出的结论是,导致不确定性的是梯度计算。
    我看了看 this question,并在使用 intra_op_parallelism_thread=1inter_op_parallelism_thread=1的CPU上运行时,问题仍然存在。

    如果不通过正向通行,反向通行如何不确定?我该如何进一步调试呢?

    最佳答案

    这个答案似乎有些明显,但是您是否使用了某种不确定性的正则化方法,例如辍学?考虑到辍学在训练时会随机“掉落”某些连接,这可能会导致梯度上的差异。

    编辑:类似的问题:

  • How to get stable results with TensorFlow, setting random seed
  • Tensorflow not being deterministic, where it should

  • 编辑2:这似乎与TensorFlow的实现有关。请参阅GitHub中的以下未解决问题:
  • Problems Getting TensorFlow to behave Deterministically
  • Non-deterministic behaviour when ran on GPU
  • 关于tensorflow - 非确定性梯度计算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42412660/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com