- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章pytorch中的优化器optimizer.param_groups用法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
optimizer.param_groups: 是长度为2的list,其中的元素是2个字典; 。
optimizer.param_groups[0]: 长度为6的字典,包括[‘amsgrad', ‘params', ‘lr', ‘betas', ‘weight_decay', ‘eps']这6个参数; 。
optimizer.param_groups[1]: 好像是表示优化器的状态的一个字典; 。
1
2
3
4
5
6
7
8
|
import
torch
import
torch.optim as optimh2
w1
=
torch.randn(
3
,
3
)
w1.requires_grad
=
True
w2
=
torch.randn(
3
,
3
)
w2.requires_grad
=
True
o
=
optim.Adam([w1])
print
(o.param_groups)
|
1
2
3
4
5
6
7
8
|
[{
'amsgrad'
:
False
,
'betas'
: (
0.9
,
0.999
),
'eps'
:
1e
-
08
,
'lr'
:
0.001
,
'params'
: [tensor([[
2.9064
,
-
0.2141
,
-
0.4037
],
[
-
0.5718
,
1.0375
,
-
0.6862
],
[
-
0.8372
,
0.4380
,
-
0.1572
]])],
'weight_decay'
:
0
}]
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
Per the docs, the add_param_group method accepts a param_group parameter that
is
a
dict
. Example of use:h2import torch
import
torch.optim as optimh2
w1
=
torch.randn(
3
,
3
)
w1.requires_grad
=
True
w2
=
torch.randn(
3
,
3
)
w2.requires_grad
=
True
o
=
optim.Adam([w1])
print
(o.param_groups)
givesh2[{
'amsgrad'
:
False
,
'betas'
: (
0.9
,
0.999
),
'eps'
:
1e
-
08
,
'lr'
:
0.001
,
'params'
: [tensor([[
2.9064
,
-
0.2141
,
-
0.4037
],
[
-
0.5718
,
1.0375
,
-
0.6862
],
[
-
0.8372
,
0.4380
,
-
0.1572
]])],
'weight_decay'
:
0
}]
nowh2o.add_param_group({
'params'
: w2})
print
(o.param_groups)
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
[{
'amsgrad'
:
False
,
'betas'
: (
0.9
,
0.999
),
'eps'
:
1e
-
08
,
'lr'
:
0.001
,
'params'
: [tensor([[
2.9064
,
-
0.2141
,
-
0.4037
],
[
-
0.5718
,
1.0375
,
-
0.6862
],
[
-
0.8372
,
0.4380
,
-
0.1572
]])],
'weight_decay'
:
0
},
{
'amsgrad'
:
False
,
'betas'
: (
0.9
,
0.999
),
'eps'
:
1e
-
08
,
'lr'
:
0.001
,
'params'
: [tensor([[
-
0.0560
,
0.4585
,
-
0.7589
],
[
-
0.1994
,
0.4557
,
0.5648
],
[
-
0.1280
,
-
0.0333
,
-
1.1886
]])],
'weight_decay'
:
0
}]
|
1
2
3
4
5
6
7
|
# 动态修改学习率
for
param_group
in
optimizer.param_groups:
param_group[
"lr"
]
=
lr
# 得到学习率optimizer.param_groups[0]["lr"] h2# print('查看optimizer.param_groups结构:')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list)
[
'amsgrad'
,
'params'
,
'lr'
,
'betas'
,
'weight_decay'
,
'eps'
]
|
补充:pytorch中的优化器总结 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
|
# -*- coding: utf-8 -*-
#@Time :2019/7/3 22:31
#@Author :XiaoMa
from
torch
import
nn as nn
import
torch as t
from
torch.autograd
import
Variable as V
#定义一个LeNet网络
class
Net(nn.Module):
def
__init__(
self
):
super
(Net,
self
).__init__()
self
.features
=
nn.Sequential(
nn.Conv2d(
3
,
6
,
5
),
nn.ReLU(),
nn.MaxPool2d(
2
,
2
),
nn.Conv2d(
6
,
16
,
5
),
nn.ReLU(),
nn.MaxPool2d(
2
,
3
)
)
self
.classifier
=
nn.Sequential(\
nn.Linear(
16
*
5
*
5
,
120
),
nn.ReLU(),
nn.Linear(
120
,
84
),
nn.ReLU(),
nn.Linear(
84
,
10
)
)
def
forward(
self
, x):
x
=
self
.features(x)
x
=
x.view(
-
1
,
16
*
5
*
5
)
x
=
self
.classifier(x)
return
x
net
=
Net()
from
torch
import
optim
#优化器
optimizer
=
optim.SGD(params
=
net.parameters(),lr
=
1
)
optimizer.zero_grad()
#梯度清零,相当于net.zero_grad()
input
=
V(t.randn(
1
,
3
,
32
,
32
))
output
=
net(
input
)
output.backward(output)
#fake backward
optimizer.step()
#执行优化
#为不同子网络设置不同的学习率,在finetune中经常用到
#如果对某个参数不指定学习率,就使用默认学习率
optimizer
=
optim.SGD(
[{
'param'
:net.features.parameters()},
#学习率为1e-5
{
'param'
:net.classifier.parameters(),
'lr'
:
1e
-
2
}],lr
=
1e
-
5
)
#只为两个全连接层设置较大的学习率,其余层的学习率较小
special_layers
=
nn.ModuleList([net.classifier[
0
],net.classifier[
3
]])
special_layers_params
=
list
(
map
(
id
,special_layers.parameters()))
base_params
=
filter
(
lambda
p:
id
(p)
not
in
special_layers_params,net.parameters())
optimizer
=
t.optim.SGD([
{
'param'
:base_params},
{
'param'
:special_layers.parameters(),
'lr'
:
0.01
}
],lr
=
0.001
)
|
一种是修改optimizer.param_groups中对应的学习率,另一种是新建优化器(更简单也是更推荐的做法),由于optimizer十分轻量级,构建开销很小,故可以构建新的optimizer.
但是新建优化器会重新初始化动量等状态信息,这对使用动量的优化器来说(如自带的momentum的sgd),可能会造成损失函数在收敛过程中出现震荡.
如:
1
2
3
4
5
|
#调整学习率,新建一个optimizer
old_lr
=
0.1
optimizer
=
optim.SGD([
{
'param'
:net.features.parameters()},
{
'param'
:net.classifiers.parameters(),
'lr'
:old_lr
*
0.5
}],lr
=
1e
-
5
)
|
以上为个人经验,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://wstchhwp.blog.csdn.net/article/details/108490956 。
最后此篇关于pytorch中的优化器optimizer.param_groups用法的文章就讲到这里了,如果你想了解更多关于pytorch中的优化器optimizer.param_groups用法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我想做的是让 JTextPane 在 JPanel 中占用尽可能多的空间。对于我使用的 UpdateInfoPanel: public class UpdateInfoPanel extends JP
我在 JPanel 中有一个 JTextArea,我想将其与 JScrollPane 一起使用。我正在使用 GridBagLayout。当我运行它时,框架似乎为 JScrollPane 腾出了空间,但
我想在 xcode 中实现以下功能。 我有一个 View Controller 。在这个 UIViewController 中,我有一个 UITabBar。它们下面是一个 UIView。将 UITab
有谁知道Firebird 2.5有没有类似于SQL中“STUFF”函数的功能? 我有一个包含父用户记录的表,另一个表包含与父相关的子用户记录。我希望能够提取用户拥有的“ROLES”的逗号分隔字符串,而
我想使用 JSON 作为 mirth channel 的输入和输出,例如详细信息保存在数据库中或创建 HL7 消息。 简而言之,输入为 JSON 解析它并输出为任何格式。 最佳答案 var objec
通常我会使用 R 并执行 merge.by,但这个文件似乎太大了,部门中的任何一台计算机都无法处理它! (任何从事遗传学工作的人的附加信息)本质上,插补似乎删除了 snp ID 的 rs 数字,我只剩
我有一个以前可能被问过的问题,但我很难找到正确的描述。我希望有人能帮助我。 在下面的代码中,我设置了varprice,我想添加javascript变量accu_id以通过rails在我的数据库中查找记
我有一个简单的 SVG 文件,在 Firefox 中可以正常查看 - 它的一些包装文本使用 foreignObject 包含一些 HTML - 文本包装在 div 中:
所以我正在为学校编写一个 Ruby 程序,如果某个值是 1 或 3,则将 bool 值更改为 true,如果是 0 或 2,则更改为 false。由于我有 Java 背景,所以我认为这段代码应该有效:
我做了什么: 我在这些账户之间创建了 VPC 对等连接 互联网网关也连接到每个 VPC 还配置了路由表(以允许来自双方的流量) 情况1: 当这两个 VPC 在同一个账户中时,我成功测试了从另一个 La
我有一个名为 contacts 的表: user_id contact_id 10294 10295 10294 10293 10293 10294 102
我正在使用 Magento 中的新模板。为避免重复代码,我想为每个产品预览使用相同的子模板。 特别是我做了这样一个展示: $products = Mage::getModel('catalog/pro
“for”是否总是检查协议(protocol)中定义的每个函数中第一个参数的类型? 编辑(改写): 当协议(protocol)方法只有一个参数时,根据该单个参数的类型(直接或任意)找到实现。当协议(p
我想从我的 PHP 代码中调用 JavaScript 函数。我通过使用以下方法实现了这一点: echo ' drawChart($id); '; 这工作正常,但我想从我的 PHP 代码中获取数据,我使
这个问题已经有答案了: Event binding on dynamically created elements? (23 个回答) 已关闭 5 年前。 我有一个动态表单,我想在其中附加一些其他 h
我正在尝试找到一种解决方案,以在 componentDidMount 中的映射项上使用 setState。 我正在使用 GraphQL连同 Gatsby返回许多 data 项目,但要求在特定的 pat
我在 ScrollView 中有一个 View 。只要用户按住该 View ,我想每 80 毫秒调用一次方法。这是我已经实现的: final Runnable vibrate = new Runnab
我用 jni 开发了一个 android 应用程序。我在 GetStringUTFChars 的 dvmDecodeIndirectRef 中得到了一个 dvmabort。我只中止了一次。 为什么会这
当我到达我的 Activity 时,我调用 FragmentPagerAdapter 来处理我的不同选项卡。在我的一个选项卡中,我想显示一个 RecyclerView,但他从未出现过,有了断点,我看到
当我按下 Activity 中的按钮时,会弹出一个 DialogFragment。在对话框 fragment 中,有一个看起来像普通 ListView 的 RecyclerView。 我想要的行为是当
我是一名优秀的程序员,十分优秀!