- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我已阅读 docs of both functions ,但据我所知,对于函数 tf.nn.softmax_cross_entropy_with_logits(logits, labels, dim=-1, name=None)
,结果是交叉熵损失,其中logits
的维度和 labels
是相同的。
但是,对于函数 tf.nn.sparse_softmax_cross_entropy_with_logits
,尺寸logits
和 labels
不一样吗?
你能给出一个更详细的tf.nn.sparse_softmax_cross_entropy_with_logits
的例子吗? ?
最佳答案
不同的是tf.nn.softmax_cross_entropy_with_logits
不假设这些类是互斥的:
Measures the probability error in discrete classification tasks in which each class is independent and not mutually exclusive. For instance, one could perform multilabel classification where a picture can contain both an elephant and a dog at the same time.
sparse_*
:
Measures the probability error in discrete classification tasks in which the classes are mutually exclusive (each entry is in exactly one class). For example, each CIFAR-10 image is labeled with one and only one label: an image can be a dog or a truck, but not both.
logits
的维度和
labels
不一样:
labels
每个示例包含一个数字,而
logits
每个示例的类数,表示概率。
关于Tensorflow,tf.nn.softmax_cross_entropy_with_logits 和 tf.nn.sparse_softmax_cross_entropy_with_logits 的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41283115/
我注意到 tf.nn.softmax_cross_entropy_with_logits为 logits 参数请求“未缩放的对数概率”。但是,我没有看到有人建议在提交给这个函数之前对他们的 NN 预测
我想知道 TensorFlow 的 softmax_cross_entropy_with_logits 是否有等效的 PyTorch 损失函数? 最佳答案 is there an equivalent
是tf.nn.softmax_cross_entropy_with_logits考虑批量大小? 在我的 LSTM 网络中,我输入不同大小的批处理,我想知道在优化之前是否应该对批处理大小的误差进行标准化
tf.nn.softmax_cross_entropy_with_logits 和 tf.losses.log_loss 之间的主要区别是什么?这两种方法都接受 1-hot 标签和 logits 来计
当使用神经网络进行分类时,据说: 您通常希望使用 softmax 交叉熵输出,因为这可以为您提供每个可能选项的概率。 在只有两个选项的常见情况下,您需要使用 sigmoid,除了避免冗余输出 p 和
我正在制作一台计算机,使用 softmax 函数从 MNist 数据集中预测手写数字。奇怪的事情发生了。成本随着时间的推移而降低,最终变为 0.0038 左右……(我使用 softmax_crosse
我最近遇到了 tensorflow softmax_cross_entropy_with_logits,但我无法弄清楚与 sigmoid_cross_entropy_with_logits 相比在实现
在 tensorflow API docs他们使用名为 logits 的关键字。它是什么?很多方法都是这样写的: tf.nn.softmax(logits, name=None) 如果logits只是
对于一项作业,我应该为其一部分编写一个单层神经网络。我认为我的大部分内容都是正确的,但是当我尝试使用 tf.nn.softmax_cross_entropy_with_logits 方法时,我收到一条
我在使用 tf.layers 和 tf.nn.softmax_cross_entropy_with_logits 的 tensorflow 模型上恢复和执行推理时遇到问题。一旦我记忆起保存的文件,我就
你能指导如何解决这个问题吗? with tf.name_scope('loss'): #cross_entropy = None val = tf.nn.softmax_cross_e
我已阅读 docs of both functions ,但据我所知,对于函数 tf.nn.softmax_cross_entropy_with_logits(logits, labels, dim=
错误是ValueError: Only call softmax_cross_entropy_with_logits with named arguments (labels=..., logits=
我尝试按照 tensorflow 教程实现 MNIST CNN 神经网络,并找到这些实现 softmax 交叉熵的方法给出了不同的结果: (1) 不好的结果 softmax = tf.nn.softm
我正在关注此处的多层感知器示例:https://github.com/aymericdamien/TensorFlow-Examples我对函数 tf.nn.softmax_cross_entropy
我是一名优秀的程序员,十分优秀!