gpt4 book ai didi

python - 为什么tf.layers.batch_normalization的参数 'scale'在下一层是relu时被禁用?

转载 作者:行者123 更新时间:2023-12-05 07:32:46 27 4
gpt4 key购买 nike

tf.layers.batch_normalization 的 tensorflow 文档中,据说“当下一层是线性的(也例如 nn.relu)时,这个('scale' 的参数)可以被禁用,因为缩放可以由下一层完成。” ?好像不对,因为当下一层是nn.relu时,线性系数是一个不变量常量(1),这个值不会被sacled。

最佳答案

nn.relu 之后的层通常是线性的。在 ReLu 之前或之后做一些缩放不会改变任何东西(如果 L 是线性的,L(relu(x))=relu(L(x)) for all x),因此在 bartch 归一化之后进行缩放并在下一层进行缩放是多余的。

因此,如果在 ReLu 之后有另一个线性层(通常是这种情况),则可以跳过批归一化后跟 ReLu 的缩放。

关于python - 为什么tf.layers.batch_normalization的参数 'scale'在下一层是relu时被禁用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51058476/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com