作者热门文章
- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我需要计算 softmax 输出与目标的损失。我的目标是 [0,0,1],输出是 [0.3,0.3,0.4]就目的而言,预测是正确的。但是以下类型的成本函数并没有考虑到这种准确性
self._output = output = tf.nn.softmax(y)
self._cost = cost = tf.reduce_mean(tf.square( output - tf.reshape(self._targets, [-1])))
我如何轻松地将输出 [0.3,0.3,0.4] 转换为 TF 本身的 [0,0,1]?
最佳答案
用于比较两个概率分布的典型损失函数称为 cross entropy . TensorFlow 有 tf.nn.softmax_cross_entropy_with_logits实现该损失的功能。在你的情况下,你可以简单地做:
self._cost = tf.nn.softmax_cross_entropy_with_logits(
y, tf.reshape(self._targets, [-1]))
但如果您真的想将 [0.3, 0.3, 0.4]
转换为用于不同目的的单热表示,您可以使用 tf.one_hot
功能如下:
sess = tf.InteractiveSession()
a = tf.constant([0.3, 0.3, 0.4])
one_hot_a = tf.one_hot(tf.nn.top_k(a).indices, tf.shape(a)[0])
print(one_hot_a.eval())
# prints [[ 0. 0. 1.]]
关于python - 如何将输出张量转换为单热张量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38485905/
我是一名优秀的程序员,十分优秀!