- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章PyTorch的SoftMax交叉熵损失和梯度用法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
在PyTorch中可以方便的验证SoftMax交叉熵损失和对输入梯度的计算 。
关于softmax_cross_entropy求导的过程,可以参考HERE 。
示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
# -*- coding: utf-8 -*-
import
torch
import
torch.autograd as autograd
from
torch.autograd
import
Variable
import
torch.nn.functional as F
import
torch.nn as nn
import
numpy as np
# 对data求梯度, 用于反向传播
data
=
Variable(torch.FloatTensor([[
1.0
,
2.0
,
3.0
], [
1.0
,
2.0
,
3.0
], [
1.0
,
2.0
,
3.0
]]), requires_grad
=
True
)
# 多分类标签 one-hot格式
label
=
Variable(torch.zeros((
3
,
3
)))
label[
0
,
2
]
=
1
label[
1
,
1
]
=
1
label[
2
,
0
]
=
1
print
(label)
# for batch loss = mean( -sum(Pj*logSj) )
# for one : loss = -sum(Pj*logSj)
loss
=
torch.mean(
-
torch.
sum
(label
*
torch.log(F.softmax(data, dim
=
1
)), dim
=
1
))
loss.backward()
print
(loss, data.grad)
|
输出:
1
2
3
4
5
6
7
|
tensor([[
0.
,
0.
,
1.
],
[
0.
,
1.
,
0.
],
[
1.
,
0.
,
0.
]])
# loss:损失 和 input's grad:输入的梯度
tensor(
1.4076
) tensor([[
0.0300
,
0.0816
,
-
0.1116
],
[
0.0300
,
-
0.2518
,
0.2217
],
[
-
0.3033
,
0.0816
,
0.2217
]])
|
注意:
对于单输入的loss 和 grad 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
data
=
Variable(torch.FloatTensor([[
1.0
,
2.0
,
3.0
]]), requires_grad
=
True
)
label
=
Variable(torch.zeros((
1
,
3
)))
#分别令不同索引位置label为1
label[
0
,
0
]
=
1
# label[0, 1] = 1
# label[0, 2] = 1
print
(label)
# for batch loss = mean( -sum(Pj*logSj) )
# for one : loss = -sum(Pj*logSj)
loss
=
torch.mean(
-
torch.
sum
(label
*
torch.log(F.softmax(data, dim
=
1
)), dim
=
1
))
loss.backward()
print
(loss, data.grad)
|
其输出:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
# 第一组:
lable: tensor([[
1.
,
0.
,
0.
]])
loss: tensor(
2.4076
)
grad: tensor([[
-
0.9100
,
0.2447
,
0.6652
]])
# 第二组:
lable: tensor([[
0.
,
1.
,
0.
]])
loss: tensor(
1.4076
)
grad: tensor([[
0.0900
,
-
0.7553
,
0.6652
]])
# 第三组:
lable: tensor([[
0.
,
0.
,
1.
]])
loss: tensor(
0.4076
)
grad: tensor([[
0.0900
,
0.2447
,
-
0.3348
]])
"""
解释:
对于输入数据 tensor([[ 1., 2., 3.]]) softmax之后的结果如下
tensor([[ 0.0900, 0.2447, 0.6652]])
交叉熵求解梯度推导公式可知 s[0, 0]-1, s[0, 1]-1, s[0, 2]-1 是上面三组label对应的输入数据梯度
"""
|
pytorch提供的softmax, 和log_softmax 关系 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
# 官方提供的softmax实现
In[
2
]:
import
torch
...:
import
torch.autograd as autograd
...:
from
torch.autograd
import
Variable
...:
import
torch.nn.functional as F
...:
import
torch.nn as nn
...:
import
numpy as np
In[
3
]: data
=
Variable(torch.FloatTensor([[
1.0
,
2.0
,
3.0
]]), requires_grad
=
True
)
In[
4
]: data
Out[
4
]: tensor([[
1.
,
2.
,
3.
]])
In[
5
]: e
=
torch.exp(data)
In[
6
]: e
Out[
6
]: tensor([[
2.7183
,
7.3891
,
20.0855
]])
In[
7
]: s
=
torch.
sum
(e, dim
=
1
)
In[
8
]: s
Out[
8
]: tensor([
30.1929
])
In[
9
]: softmax
=
e
/
s
In[
10
]: softmax
Out[
10
]: tensor([[
0.0900
,
0.2447
,
0.6652
]])
In[
11
]:
# 等同于 pytorch 提供的 softmax
In[
12
]: org_softmax
=
F.softmax(data, dim
=
1
)
In[
13
]: org_softmax
Out[
13
]: tensor([[
0.0900
,
0.2447
,
0.6652
]])
In[
14
]: org_softmax
=
=
softmax
# 计算结果相同
Out[
14
]: tensor([[
1
,
1
,
1
]], dtype
=
torch.uint8)
# 与log_softmax关系
# log_softmax = log(softmax)
In[
15
]: _log_softmax
=
torch.log(org_softmax)
In[
16
]: _log_softmax
Out[
16
]: tensor([[
-
2.4076
,
-
1.4076
,
-
0.4076
]])
In[
17
]: log_softmax
=
F.log_softmax(data, dim
=
1
)
In[
18
]: log_softmax
Out[
18
]: tensor([[
-
2.4076
,
-
1.4076
,
-
0.4076
]])
|
官方提供的softmax交叉熵求解结果 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
# -*- coding: utf-8 -*-
import
torch
import
torch.autograd as autograd
from
torch.autograd
import
Variable
import
torch.nn.functional as F
import
torch.nn as nn
import
numpy as np
data
=
Variable(torch.FloatTensor([[
1.0
,
2.0
,
3.0
], [
1.0
,
2.0
,
3.0
], [
1.0
,
2.0
,
3.0
]]), requires_grad
=
True
)
log_softmax
=
F.log_softmax(data, dim
=
1
)
label
=
Variable(torch.zeros((
3
,
3
)))
label[
0
,
2
]
=
1
label[
1
,
1
]
=
1
label[
2
,
0
]
=
1
print
(
"lable: "
, label)
# 交叉熵的计算方式之一
loss_fn
=
torch.nn.NLLLoss()
# reduce=True loss.sum/batch & grad/batch
# NLLLoss输入是log_softmax, target是非one-hot格式的label
loss
=
loss_fn(log_softmax, torch.argmax(label, dim
=
1
))
loss.backward()
print
(
"loss: "
, loss,
"\ngrad: "
, data.grad)
"""
# 交叉熵计算方式二
loss_fn = torch.nn.CrossEntropyLoss() # the target label is NOT an one-hotted
#CrossEntropyLoss适用于分类问题的损失函数
#input:没有softmax过的nn.output, target是非one-hot格式label
loss = loss_fn(data, torch.argmax(label, dim=1))
loss.backward()
print("loss: ", loss, "\ngrad: ", data.grad)
"""
"""
|
输出 。
1
2
3
4
5
6
7
|
lable: tensor([[
0.
,
0.
,
1.
],
[
0.
,
1.
,
0.
],
[
1.
,
0.
,
0.
]])
loss: tensor(
1.4076
)
grad: tensor([[
0.0300
,
0.0816
,
-
0.1116
],
[
0.0300
,
-
0.2518
,
0.2217
],
[
-
0.3033
,
0.0816
,
0.2217
]])
|
通过和示例的输出对比, 发现两者是一样的 。
以上这篇PyTorch的SoftMax交叉熵损失和梯度用法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/u010472607/article/details/82705567 。
最后此篇关于PyTorch的SoftMax交叉熵损失和梯度用法的文章就讲到这里了,如果你想了解更多关于PyTorch的SoftMax交叉熵损失和梯度用法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我正在尝试调整 tf DeepDream 教程代码以使用另一个模型。现在当我调用 tf.gradients() 时: t_grad = tf.gradients(t_score, t_input)[0
考虑到 tensorflow 中 mnist 上的一个简单的小批量梯度下降问题(就像在这个 tutorial 中),我如何单独检索批次中每个示例的梯度。 tf.gradients()似乎返回批次中所有
当我在 numpy 中计算屏蔽数组的梯度时 import numpy as np import numpy.ma as ma x = np.array([100, 2, 3, 5, 5, 5, 10,
除了数值计算之外,是否有一种快速方法来获取协方差矩阵(我的网络激活)的导数? 我试图将其用作深度神经网络中成本函数中的惩罚项,但为了通过我的层反向传播误差,我需要获得导数。 在Matlab中,如果“a
我有一个计算 3D 空间标量场值的函数,所以我为它提供 x、y 和 z 坐标(由 numpy.meshgrid 获得)的 3D 张量,并在各处使用元素运算。这按预期工作。 现在我需要计算标量场的梯度。
我正在使用内核密度估计 (KDE) ( http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.gaussian_kde.htm
我对 tensorflow gradient documentation 中的示例感到困惑用于计算梯度。 a = tf.constant(0.) b = 2 * a g = tf.gradients(
我有一个 softmax 层(只有激活本身,没有将输入乘以权重的线性部分),我想对其进行向后传递。 我找到了很多关于 SO 的教程/答案来处理它,但它们似乎都使用 X 作为 (1, n_inputs)
仅供引用,我正在尝试使用 Tensorflow 实现梯度下降算法。 我有一个矩阵X [ x1 x2 x3 x4 ] [ x5 x6 x7 x8 ] 我乘以一些特征向量 Y 得到 Z [ y
我目前有一个由几百万个不均匀分布的粒子组成的体积,每个粒子都有一个属性(对于那些好奇的人来说是潜在的),我想为其计算局部力(加速度)。 np.gradient 仅适用于均匀间隔的数据,我在这里查看:S
我正在寻找有关如何实现 Gradient (steepest) Descent 的建议在 C 中。我正在寻找 f(x)=||Ax-y||^2 的最小值,其中给出了 A(n,n) 和 y(n)。 这在
我正在查看 SVM 损失和导数的代码,我确实理解了损失,但我无法理解如何以矢量化方式计算梯度 def svm_loss_vectorized(W, X, y, reg): loss = 0.0 dW
我正在寻找一种有效的方法来计算 Julia 中多维数组的导数。准确地说,我想要一个等效的 numpy.gradient在 Julia 。但是,Julia 函数 diff : 仅适用于二维数组 沿微分维
我在cathesian 2D 系统中有两个点,它们都给了我向量的起点和终点。现在我需要新向量和 x 轴之间的角度。 我知道梯度 = (y2-y1)/(x2-x1) 并且我知道角度 = arctan(g
我有一个 2D 数组正弦模式,想要绘制该函数的 x 和 y 梯度。我有一个二维数组 image_data : def get_image(params): # do some maths on
假设我有一个针对 MNIST 数据的简单 TensorFlow 模型,如下所示 import tensorflow as tf from tensorflow.examples.tutorials.m
我想查看我的 Tensorflow LSTM 随时间变化的梯度,例如,绘制从 t=N 到 t=0 的梯度范数。问题是,如何从 Tensorflow 中获取每个时间步长的梯度? 最佳答案 在图中定义:
我有一个简单的神经网络,我试图通过使用如下回调使用张量板绘制梯度: class GradientCallback(tf.keras.callbacks.Callback): console =
在CIFAR-10教程中,我注意到变量被放置在CPU内存中,但它在cifar10-train.py中有说明。它是使用单个 GPU 进行训练的。 我很困惑..图层/激活是否存储在 GPU 中?或者,梯度
我有一个 tensorflow 模型,其中层的输出是二维张量,例如 t = [[1,2], [3,4]] . 下一层需要一个由该张量的每一行组合组成的输入。也就是说,我需要把它变成t_new = [[
我是一名优秀的程序员,十分优秀!