gpt4 book ai didi

python - tf.nn.relu 对比 tf.contrib.layers.relu?

转载 作者:太空宇宙 更新时间:2023-11-03 13:11:26 25 4
gpt4 key购买 nike

我看到这里记录了这个“tf.nn.relu”:https://www.tensorflow.org/api_docs/python/tf/nn/relu

但后来我在“model_fn”的这个页面上也看到了 tf.contrib.layers.relu 的用法: https://www.tensorflow.org/extend/estimators

后者似乎不像第一个那样以类似 API 的方式被描述,而只是在使用中呈现。

这是为什么?文档过时了吗?为什么有两个 - 一个是旧的并且不再受支持/将被删除?

最佳答案

它们不是一回事。

后者不是激活函数而是 fully_connected激活函数预设为nn.relu:

relu = functools.partial(fully_connected, activation_fn=nn.relu)
# ^ |< >|
# |_ tf.contrib.layers.relu tf.nn.relu_|

如果您阅读 contrib.layers 的文档,你会发现:

Aliases for fully_connected which set a default activation function are available: relu, relu6 and linear.

总而言之,tf.contrib.layers.relufully_connected 的别名具有 relu 激活层,而 tf.nn.relu 是 Rectified Linear Unit 激活函数本身。

关于python - tf.nn.relu 对比 tf.contrib.layers.relu?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42773379/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com