- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章PyTorch中的拷贝与就地操作详解由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
PyTroch中我们经常使用到Numpy进行数据的处理,然后再转为Tensor,但是关系到数据的更改时我们要注意方法是否是共享地址,这关系到整个网络的更新。本篇就In-palce操作,拷贝操作中的注意点进行总结.
pytorch中原地操作的后缀为_,如.add_()或.scatter_(),就地操作是直接更改给定Tensor的内容而不进行复制的操作,即不会为变量分配新的内存。Python操作类似+=或*=也是就地操作。(我加了我自己~) 。
为什么in-place操作可以在处理高维数据时可以帮助减少内存使用呢,下面使用一个例子进行说明,定义以下简单函数来测量PyTorch的异位ReLU(out-of-place)和就地ReLU(in-place)分配的内存:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
|
import
torch
# import main library
import
torch.nn as nn
# import modules like nn.ReLU()
import
torch.nn.functional as F
# import torch functions like F.relu() and F.relu_()
def
get_memory_allocated(device, inplace
=
False
):
'''
Function measures allocated memory before and after the ReLU function call.
INPUT:
- device: gpu device to run the operation
- inplace: True - to run ReLU in-place, False - for normal ReLU call
'''
# Create a large tensor
t
=
torch.randn(
10000
,
10000
, device
=
device)
# Measure allocated memory
torch.cuda.synchronize()
start_max_memory
=
torch.cuda.max_memory_allocated()
/
1024
*
*
2
start_memory
=
torch.cuda.memory_allocated()
/
1024
*
*
2
# Call in-place or normal ReLU
if
inplace:
F.relu_(t)
else
:
output
=
F.relu(t)
# Measure allocated memory after the call
torch.cuda.synchronize()
end_max_memory
=
torch.cuda.max_memory_allocated()
/
1024
*
*
2
end_memory
=
torch.cuda.memory_allocated()
/
1024
*
*
2
# Return amount of memory allocated for ReLU call
return
end_memory
-
start_memory, end_max_memory
-
start_max_memory
# setup the device
device
=
torch.device(
'cuda:0'
if
torch.cuda.is_available()
else
"cpu"
)
#开始测试
# Call the function to measure the allocated memory for the out-of-place ReLU
memory_allocated, max_memory_allocated
=
get_memory_allocated(device, inplace
=
False
)
print
(
'Allocated memory: {}'
.
format
(memory_allocated))
print
(
'Allocated max memory: {}'
.
format
(max_memory_allocated))
'''
Allocated memory: 382.0
Allocated max memory: 382.0
'''
#Then call the in-place ReLU as follows:
memory_allocated_inplace, max_memory_allocated_inplace
=
get_memory_allocated(device, inplace
=
True
)
print
(
'Allocated memory: {}'
.
format
(memory_allocated_inplace))
print
(
'Allocated max memory: {}'
.
format
(max_memory_allocated_inplace))
'''
Allocated memory: 0.0
Allocated max memory: 0.0
'''
|
看起来,使用就地操作可以帮助我们节省一些GPU内存。但是,在使用就地操作时应该格外谨慎.
就地操作的主要缺点主要原因有2点,官方文档:
1.可能会覆盖计算梯度所需的值,这意味着破坏了模型的训练过程.
2.每个就地操作实际上都需要实现来重写计算图。异地操作Out-of-place分配新对象并保留对旧图的引用,而就地操作则需要更改表示此操作的函数的所有输入的创建者.
在Autograd中支持就地操作很困难,并且在大多数情况下不鼓励使用。Autograd积极的缓冲区释放和重用使其非常高效,就地操作实际上降低内存使用量的情况很少。除非在沉重的内存压力下运行,否则可能永远不需要使用它们.
总结:Autograd很香了,就地操作要慎用.
浅拷贝方法: 共享 data 的内存地址,数据会同步变化 。
* a.numpy() # Tensor—>Numpy array 。
* view() #改变tensor的形状,但共享数据内存,不要直接使用id进行判断 。
* y = x[:] # 索引 。
* torch.from_numpy() # Numpy array—>Tensor 。
* torch.detach() # 新的tensor会脱离计算图,不会牵扯梯度计算.
* model:forward() 。
还有很多选择函数也是数据共享内存,如index_select() masked_select() gather().
以及后文提到的就地操作in-place.
* torch.clone() # 新的tensor会保留在计算图中,参与梯度计算 。
下面进行验证,首先验证浅拷贝:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
import torch as t
import numpy as np
a = np.ones(4)
b = t.from_numpy(a)
# Numpy->Tensor
print(a)
print(b)
''
'输出:
[1. 1. 1. 1.]
tensor([1., 1., 1., 1.], dtype=torch.float64)
'
''
b.add_(1)
# add_会修改b自身
print(a)
print(b)
''
'输出:
[2. 2. 2. 2.]
tensor([2., 2., 2., 2.], dtype=torch.float64)
b进行add操作后, a,b同步发生了变化
'
''
|
Tensor和numpy对象共享内存(浅拷贝操作),所以他们之间的转换很快,且会同步变化.
造torch中y = x + y这样的运算是会新开内存的,然后将y指向新内存。为了进行验证,我们可以使用Python自带的id函数:如果两个实例的ID一致,那么它们所对应的内存地址相同;但需要注意是在torch中还有些特殊,数据共享时直接打印tensor的id仍然会出现不同.
1
2
3
4
5
6
|
x
=
torch.tensor([
1
,
2
])
y
=
torch.tensor([
3
,
4
])
id_0
=
id
(y)
y
=
y
+
x
print
(
id
(y)
=
=
id_0)
# False
|
这时使用索引操作不会开辟新的内存,而想指定结果到原来的y的内存,我们可以使用索引来进行替换操作。比如把x + y的结果通过[:]写进y对应的内存中.
1
2
3
4
5
6
|
x
=
torch.tensor([
1
,
2
])
y
=
torch.tensor([
3
,
4
])
id_0
=
id
(y)
y[:]
=
y
+
x
print
(
id
(y)
=
=
id_0)
# True
|
另外,以下两种方式也可以索引到相同的内存:
1
2
3
4
5
6
7
|
x
=
torch.tensor([
1
,
2
])
y
=
torch.tensor([
3
,
4
])
id_0
=
id
(y)
torch.add(x, y, out
=
y)
# y += x, y.add_(x)
print
(
id
(y)
=
=
id_0)
# True
|
Torch 为了提高速度,向量或是矩阵的赋值是指向同一内存的,这不同于 Matlab。如果需要保存旧的tensor即需要开辟新的存储地址而不是引用,可以用 clone() 进行深拷贝, 。
首先我们来打印出来clone()操作后的数据类型定义变化:
(1). 简单打印类型 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
import
torch
a
=
torch.tensor(
1.0
, requires_grad
=
True
)
b
=
a.clone()
c
=
a.detach()
a.data
*
=
3
b
+
=
1
print
(a)
# tensor(3., requires_grad=True)
print
(b)
print
(c)
'''
输出结果:
tensor(3., requires_grad=True)
tensor(2., grad_fn=<AddBackward0>)
tensor(3.) # detach()后的值随着a的变化出现变化
'''
|
grad_fn=<CloneBackward>,表示clone后的返回值是个中间变量,因此支持梯度的回溯。clone操作在一定程度上可以视为是一个identity-mapping函数.
detach()操作后的tensor与原始tensor共享数据内存,当原始tensor在计算图中数值发生反向传播等更新之后,detach()的tensor值也发生了改变.
注意: 在pytorch中我们不要直接使用id是否相等来判断tensor是否共享内存,这只是充分条件,因为也许底层共享数据内存,但是仍然是新的tensor,比如detach(),如果我们直接打印id会出现以下情况.
1
2
3
4
5
6
7
8
|
import
torch as t
a
=
t.tensor([
1.0
,
2.0
], requires_grad
=
True
)
b
=
a.detach()
#c[:] = a.detach()
print
(
id
(a))
print
(
id
(b))
#140568935450520
140570337203616
|
显然直接打印出来的id不等,我们可以通过简单的赋值后观察数据变化进行判断.
(2). clone()的梯度回传 。
detach()函数可以返回一个完全相同的tensor,与旧的tensor共享内存,脱离计算图,不会牵扯梯度计算.
而clone充当中间变量,会将梯度传给源张量进行叠加,但是本身不保存其grad,即值为None 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import
torch
a
=
torch.tensor(
1.0
, requires_grad
=
True
)
a_
=
a.clone()
y
=
a
*
*
2
z
=
a
*
*
2
+
a_
*
3
y.backward()
print
(a.grad)
# 2
z.backward()
print
(a_.grad)
# None. 中间variable,无grad
print
(a.grad)
'''
输出:
tensor(2.)
None
tensor(7.) # 2*2+3=7
'''
|
使用torch.clone()获得的新tensor和原来的数据不再共享内存,但仍保留在计算图中,clone操作在不共享数据内存的同时支持梯度梯度传递与叠加,所以常用在神经网络中某个单元需要重复使用的场景下.
通常如果原tensor的requires_grad=True,则:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
import
torch
torch.manual_seed(
0
)
x
=
torch.tensor([
1.
,
2.
], requires_grad
=
True
)
clone_x
=
x.clone()
detach_x
=
x.detach()
clone_detach_x
=
x.clone().detach()
f
=
torch.nn.Linear(
2
,
1
)
y
=
f(x)
y.backward()
print
(x.grad)
print
(clone_x.requires_grad)
print
(clone_x.grad)
print
(detach_x.requires_grad)
print
(clone_detach_x.requires_grad)
'''
输出结果如下:
tensor([-0.0053, 0.3793])
True
None
False
False
'''
|
另一个比较特殊的是当源张量的 require_grad=False,clone后的张量 require_grad=True,此时不存在张量回传现象,可以得到clone后的张量求导.
如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import
torch
a
=
torch.tensor(
1.0
)
a_
=
a.clone()
a_.requires_grad_()
#require_grad=True
y
=
a_
*
*
2
y.backward()
print
(a.grad)
# None
print
(a_.grad)
'''
输出:
None
tensor(2.)
'''
|
torch.detach() —新的tensor会脱离计算图,不会牵扯梯度计算 。
torch.clone() — 新的tensor充当中间变量,会保留在计算图中,参与梯度计算(回传叠加),但是一般不会保留自身梯度.
原地操作(in-place, such as resize_ / resize_as_ / set_ / transpose_) 在上面两者中执行都会引发错误或者警告.
引用官方文档的话:如果你使用了in-place operation而没有报错的话,那么你可以确定你的梯度计算是正确的。另外尽量避免in-place的使用.
到此这篇关于PyTorch中拷贝与就地操作的文章就介绍到这了,更多相关PyTorch拷贝与就地操作内容请搜索我以前的文章或继续浏览下面的相关文章希望大家以后多多支持我! 。
原文链接:https://blog.csdn.net/weixin_43199584/article/details/106770647 。
最后此篇关于PyTorch中的拷贝与就地操作详解的文章就讲到这里了,如果你想了解更多关于PyTorch中的拷贝与就地操作详解的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我正在努力做到这一点 在我的操作中从数据库获取对象列表(确定) 在 JSP 上打印(确定) 此列表作为 JSP 中的可编辑表出现。我想修改然后将其提交回同一操作以将其保存在我的数据库中(失败。当我使用
我有以下形式的 Linq to Entities 查询: var x = from a in SomeData where ... some conditions ... select
我有以下查询。 var query = Repository.Query() .Where(p => !p.IsDeleted && p.Article.ArticleSections.Cou
我正在编写一个应用程序包,其中包含一个主类,其中主方法与GUI类分开,GUI类包含一个带有jtabbedpane的jframe,它有两个选项卡,第一个选项卡包含一个jtable,称为jtable1,第
以下代码产生错误 The nested query is not supported. Operation1='Case' Operation2='Collect' 问题是我做错了什么?我该如何解决?
我已经为 HA redis 集群(2 个副本、1 个主节点、3 个哨兵)设置了本地 docker 环境。只有哨兵暴露端口(10021、10022、10023)。 我使用的是 stackexchange
我正在 Desk.com 中构建一个“集成 URL”,它使用 Shopify Liquid 模板过滤器语法。对于开始日期为 7 天前而结束日期为现在的查询,此 URL 需要包含“开始日期”和“结束日期
你一定想过。然而情况却不理想,python中只能使用类似于 i++/i--等操作。 python中的自增操作 下面代码几乎是所有程序员在python中进行自增(减)操作的常用
我需要在每个使用 github 操作的手动构建中显示分支。例如:https://gyazo.com/2131bf83b0df1e2157480e5be842d4fb 我应该显示分支而不是一个。 最佳答
我有一个关于 Perl qr 运算符的问题: #!/usr/bin/perl -w &mysplit("a:b:c", /:/); sub mysplit { my($str, $patt
我已经使用 ArgoUML 创建了一个 ERD(实体关系图),我希望在一个类中创建两个操作,它们都具有 void 返回类型。但是,我只能创建一个返回 void 类型的操作。 例如: 我能够将 book
Github 操作仍处于测试阶段并且很新,但我希望有人可以提供帮助。我认为可以在主分支和拉取请求上运行 github 操作,如下所示: on: pull_request push: b
我正在尝试创建一个 Twilio 工作流来调用电话并记录用户所说的内容。为此,我正在使用 Record,但我不确定要在 action 参数中放置什么。 尽管我知道 Twilio 会发送有关调用该 UR
我不确定这是否可行,但值得一试。我正在使用模板缓冲区来减少使用此算法的延迟渲染器中光体积的过度绘制(当相机位于体积之外时): 使用廉价的着色器,将深度测试设置为 LEQUAL 绘制背面,将它们标记在模
有没有聪明的方法来复制 和 重命名 文件通过 GitHub 操作? 我想将一些自述文件复制到 /docs文件夹(:= 同一个 repo,不是远程的!),它们将根据它们的 frontmatter 重命名
我有一个 .csv 文件,其中第一列包含用户名。它们采用 FirstName LastName 的形式。我想获取 FirstName 并将 LastName 的第一个字符添加到它上面,然后删除空格。然
Sitecore 根据 Sitecore 树中定义的项目名称生成 URL, http://samplewebsite/Pages/Sample Page 但我们的客户有兴趣降低所有 URL(页面/示例
我正在尝试进行一些计算,但是一旦我输入金额,它就会完成。我只是希望通过单击按钮而不是自动发生这种情况。 到目前为止我做了什么: Angular JS - programming-fr
我的公司创建了一种在环境之间移动文件的复杂方法,现在我们希望将某些构建的 JS 文件(已转换和缩小)从一个 github 存储库移动到另一个。使用 github 操作可以实现这一点吗? 最佳答案 最简
在我的代码中,我创建了一个 JSONArray 对象。并向 JSONArray 对象添加了两个 JSONObject。我使用的是 json-simple-1.1.jar。我的代码是 package j
我是一名优秀的程序员,十分优秀!