gpt4 book ai didi

tensorflow - 使用 sparse_softmax_cross_entropy_with_logits 的中频平衡

转载 作者:行者123 更新时间:2023-12-05 07:47:42 25 4
gpt4 key购买 nike

我目前正在使用 tensorflow 解决 SegNet Architecture 上的多类分割问题

我的类(class)严重不平衡,因此我需要整合 median frequency balancing (在损失计算中使用类别权重)。我使用以下提示(基于此 post )来应用 Softmax。我需要帮助来扩展它以增加权重,我不知道该怎么做。当前实现:

reshaped_logits = tf.reshape(logits, [-1, nClass])
reshaped_labels = tf.reshape(labels, [-1])
loss = tf.nn.sparse_softmax_cross_entropy_with_logits(reshaped_logits, reshaped_labels)

我的想法是:

  1. 将 logits 张量拆分为 nClass 张量,
  2. 对每个独立应用 softmax,
  3. 通过中频平衡对它们进行加权
  4. 最后,总结加权损失。

这是正确的方法吗?

谢谢

最佳答案

您可以找到执行此操作的代码 here

def _compute_cross_entropy_mean(class_weights, labels, softmax):
cross_entropy = -tf.reduce_sum(tf.multiply(labels * tf.log(softmax), class_weights),
reduction_indices=[1])

cross_entropy_mean = tf.reduce_mean(cross_entropy,
name='xentropy_mean')
return cross_entropy_mean

head 是您的类(class)权重矩阵。

关于tensorflow - 使用 sparse_softmax_cross_entropy_with_logits 的中频平衡,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39447338/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com