gpt4 book ai didi

python - Tensorflow LSTM RNN 输出激活函数

转载 作者:太空狗 更新时间:2023-10-30 00:54:27 25 4
gpt4 key购买 nike

我有一个灰度值范围为 25000 - 35000 的输入图像。我正在进行二进制像素级分类,因此输出基本事实是 01 的矩阵。

有谁知道默认的输出激活函数是什么?我的问题是,它是 ReLu 吗?我希望它是一个 SoftMax 函数。在这种情况下,每个预测值将介于 01 之间(显然接近我的地面实况数据)。

我正在使用来自 here 的示例代码我已经调整以便为我的数据工作。

我有一个正在训练的工作网络,但现在小批量损失约为 425,准确度为 0.0,对于 LSTM MNIST 示例代码(链接),小批量损失约为 0.1,准确度约为 1.0。我希望,如果我可以将激活函数更改为使用 SoftMax 函数,我可以改进结果。

最佳答案

查看the codeBasicLSTMCell 的默认激活函数是 tf.tanh()。您可以通过在构造 BasicLSTMCell 对象时指定可选的 activation 参数来自定义激活函数,并传递任何需要单个输入并产生相同输出的 TensorFlow op形状。例如:

# Defaults to using `tf.tanh()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0)

# Uses `tf.relu()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, activation=tf.nn.relu)

# Uses `tf.softmax()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, activation=tf.nn.softmax)

关于python - Tensorflow LSTM RNN 输出激活函数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37796595/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com