gpt4 book ai didi

python - cntk 层中的线性激活函数?

转载 作者:行者123 更新时间:2023-11-30 22:43:15 24 4
gpt4 key购买 nike

在 CNTK 中,它有 relu、hardmax、softmax、sigmoid 和所有这些好东西,但我正在构建一个基于回归的算法,最后一层需要预测 2 个或更多回归输出。所以我需要 n 个节点,并且激活只是普通的线性激活。我看到我可以将激活设置为“无”,这实际上是正确的吗?

with cntk.layers.default_options(activation=cntk.ops.relu, pad=True):
z = cntk.models.Sequential([
cntk.models.LayerStack(2, lambda : [
cntk.layers.Convolution((3,3), 64),
cntk.layers.Convolution((3,3), 64),
cntk.layers.MaxPooling((3,3), (2,2))
]),
cntk.models.LayerStack(2, lambda i: [
cntk.layers.Dense([256,128][i]),
cntk.layers.Dropout(0.5)
]),
cntk.layers.Dense(4, activation=None)
])(feature_var)

最佳答案

是的。那是对的。您可以查看图层库代码 here

关于python - cntk 层中的线性激活函数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41838154/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com