- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章pytorch如何获得模型的计算量和参数量由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
pytorch自带方法,计算模型参数总量 。
1
2
|
total
=
sum
([param.nelement()
for
param
in
model.parameters()])
print
(
"Number of parameter: %.2fM"
%
(total
/
1e6
))
|
或者 。
1
2
|
total
=
sum
(p.numel()
for
p
in
model.parameters())
print
(
"Total params: %.2fM"
%
(total
/
1e6
))
|
计算模型参数总量和模型计算量 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
|
def
count_params(model, input_size
=
224
):
# param_sum = 0
with
open
(
'models.txt'
,
'w'
) as fm:
fm.write(
str
(model))
# 计算模型的计算量
calc_flops(model, input_size)
# 计算模型的参数总量
model_parameters
=
filter
(
lambda
p: p.requires_grad, model.parameters())
params
=
sum
([np.prod(p.size())
for
p
in
model_parameters])
print
(
'The network has {} params.'
.
format
(params))
# 计算模型的计算量
def
calc_flops(model, input_size):
def
conv_hook(
self
,
input
, output):
batch_size, input_channels, input_height, input_width
=
input
[
0
].size()
output_channels, output_height, output_width
=
output[
0
].size()
kernel_ops
=
self
.kernel_size[
0
]
*
self
.kernel_size[
1
]
*
(
self
.in_channels
/
self
.groups)
*
(
2
if
multiply_adds
else
1
)
bias_ops
=
1
if
self
.bias
is
not
None
else
0
params
=
output_channels
*
(kernel_ops
+
bias_ops)
flops
=
batch_size
*
params
*
output_height
*
output_width
list_conv.append(flops)
def
linear_hook(
self
,
input
, output):
batch_size
=
input
[
0
].size(
0
)
if
input
[
0
].dim()
=
=
2
else
1
weight_ops
=
self
.weight.nelement()
*
(
2
if
multiply_adds
else
1
)
bias_ops
=
self
.bias.nelement()
flops
=
batch_size
*
(weight_ops
+
bias_ops)
list_linear.append(flops)
def
bn_hook(
self
,
input
, output):
list_bn.append(
input
[
0
].nelement())
def
relu_hook(
self
,
input
, output):
list_relu.append(
input
[
0
].nelement())
def
pooling_hook(
self
,
input
, output):
batch_size, input_channels, input_height, input_width
=
input
[
0
].size()
output_channels, output_height, output_width
=
output[
0
].size()
kernel_ops
=
self
.kernel_size
*
self
.kernel_size
bias_ops
=
0
params
=
output_channels
*
(kernel_ops
+
bias_ops)
flops
=
batch_size
*
params
*
output_height
*
output_width
list_pooling.append(flops)
def
foo(net):
childrens
=
list
(net.children())
if
not
childrens:
if
isinstance
(net, torch.nn.Conv2d):
net.register_forward_hook(conv_hook)
if
isinstance
(net, torch.nn.Linear):
net.register_forward_hook(linear_hook)
if
isinstance
(net, torch.nn.BatchNorm2d):
net.register_forward_hook(bn_hook)
if
isinstance
(net, torch.nn.ReLU):
net.register_forward_hook(relu_hook)
if
isinstance
(net, torch.nn.MaxPool2d)
or
isinstance
(net, torch.nn.AvgPool2d):
net.register_forward_hook(pooling_hook)
return
for
c
in
childrens:
foo(c)
multiply_adds
=
False
list_conv, list_bn, list_relu, list_linear, list_pooling
=
[], [], [], [], []
foo(model)
if
'0.4.'
in
torch.__version__:
if
assets.USE_GPU:
input
=
torch.cuda.FloatTensor(torch.rand(
2
,
3
, input_size, input_size).cuda())
else
:
input
=
torch.FloatTensor(torch.rand(
2
,
3
, input_size, input_size))
else
:
input
=
Variable(torch.rand(
2
,
3
, input_size, input_size), requires_grad
=
True
)
_
=
model(
input
)
total_flops
=
(
sum
(list_conv)
+
sum
(list_linear)
+
sum
(list_bn)
+
sum
(list_relu)
+
sum
(list_pooling))
print
(
' + Number of FLOPs: %.2fM'
%
(total_flops
/
1e6
/
2
))
|
需要安装thop 。
1
|
pip install thop
|
调用方法:计算模型参数总量和模型计算量,而且会打印每一层网络的具体信息 。
1
2
3
4
5
|
from
thop
import
profile
input
=
torch.randn(
1
,
3
,
224
,
224
)
flops, params
=
profile(model, inputs
=
(
input
,))
print
(flops)
print
(params)
|
或者 。
1
2
3
4
5
6
7
8
9
10
|
from
torchvision.models
import
resnet50
from
thop
import
profile
# model = resnet50()
checkpoints
=
'模型path'
model
=
torch.load(checkpoints)
model_name
=
'yolov3 cut asff'
input
=
torch.randn(
1
,
3
,
224
,
224
)
flops, params
=
profile(model, inputs
=
(
input
, ),verbose
=
True
)
print
(
"%s | %.2f | %.2f"
%
(model_name, params
/
(
1000
*
*
2
), flops
/
(
1000
*
*
3
)))
#这里除以1000的平方,是为了化成M的单位,
|
注意:输入必须是四维的 。
提高输出可读性, 加入一下代码.
1
2
|
from
thop
import
clever_format
macs, params
=
clever_format([flops, params],
"%.3f"
)
|
1
2
3
4
5
|
from
torchstat
import
stat
from
torchvision.models
import
resnet50, resnet101, resnet152, resnext101_32x8d
model
=
resnet50()
stat(model, (
3
,
224
,
224
))
# (3,224,224)表示输入图片的尺寸
|
使用torchstat这个库来查看网络模型的一些信息,包括总的参数量params、MAdd、显卡内存占用量和FLOPs等。需要安装torchstat
1
|
pip install torchstat
|
作用:计算模型参数总量和模型计算量 。
安装方法:pip install ptflops 。
或者 。
1
|
pip install
-
-
upgrade git
+
https:
/
/
github.com
/
sovrasov
/
flops
-
counter.pytorch.git
|
使用方法 。
1
2
3
4
5
6
7
8
|
import
torchvision.models as models
import
torch
from
ptflops
import
get_model_complexity_info
with torch.cuda.device(
0
):
net
=
models.resnet18()
flops, params
=
get_model_complexity_info(net, (
3
,
224
,
224
), as_strings
=
True
, print_per_layer_stat
=
True
)
#不用写batch_size大小,默认batch_size=1
print
(
'Flops: '
+
flops)
print
(
'Params: '
+
params)
|
或者 。
1
2
3
4
5
6
7
8
9
10
11
12
|
from
torchvision.models
import
resnet50
import
torch
import
torchvision.models as models
# import torch
from
ptflops
import
get_model_complexity_info
# model = models.resnet50() #调用官方的模型,
checkpoints
=
'自己模型的path'
model
=
torch.load(checkpoints)
model_name
=
'yolov3 cut'
flops, params
=
get_model_complexity_info(model, (
3
,
320
,
320
),as_strings
=
True
,print_per_layer_stat
=
True
)
print
(
"%s |%s |%s"
%
(model_name,flops,params))
|
注意,这里输入一定是要tuple类型,且不需要输入batch,直接输入输入通道数量与尺寸,如(3,320,320) 320为网络输入尺寸.
输出为网络模型的总参数量(单位M,即百万)与计算量(单位G,即十亿) 。
安装:pip install torchsummary 。
使用方法:
1
2
3
|
from
torchsummary
import
summary
...
summary(your_model, input_size
=
(channels, H, W))
|
作用:
1、每一层的类型、shape 和 参数量 。
2、模型整体的参数量 。
3、模型大小,和 fp/bp 一次需要的内存大小,可以用来估计最佳 batch_size 。
补充:pytorch计算模型算力与参数大小 。
官方链接 。
这个脚本设计用于计算卷积神经网络中乘法-加法操作的理论数量。它还可以计算参数的数量和打印给定网络的每层计算成本.
支持layer:Conv1d/2d/3d,ConvTranspose2d,BatchNorm1d/2d/3d,激活(ReLU, PReLU, ELU, ReLU6, LeakyReLU),Linear,Upsample,Poolings (AvgPool1d/2d/3d、MaxPool1d/2d/3d、adaptive ones) 。
安装要求:Pytorch >= 0.4.1, torchvision >= 0.2.1 。
get_model_complexity_info是ptflops下的一个方法,可以计算出网络的算力与模型参数大小,并且可以输出每层的算力消耗.
以输出Mobilenet_v2算力信息为例:
1
2
3
4
|
from
ptflops
import
get_model_complexity_info
from
torchvision
import
models
net
=
models.mobilenet_v2()
ops, params
=
get_model_complexity_info(net, (
3
,
224
,
224
), as_strings
=
True
, print_per_layer_stat
=
True
, verbose
=
True
)
|
从图中可以看到,MobileNetV2在输入图像尺寸为(3, 224, 224)的情况下将会产生3.505MB的参数,算力消耗为0.32G,同时还打印出了每个层所占用的算力,权重参数数量。当然,整个模型的算力大小与模型大小也被存到了变量ops与params中.
以上为个人经验,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/qq_35407318/article/details/109359006 。
最后此篇关于pytorch如何获得模型的计算量和参数量的文章就讲到这里了,如果你想了解更多关于pytorch如何获得模型的计算量和参数量的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我的一个 friend 在一次求职面试中被要求编写一个程序来测量可用 RAM 的数量。预期的答案是以二进制搜索方式使用 malloc():分配越来越大的内存部分,直到收到失败消息,减少部分大小,然后对
我正在通过任务管理器检查 Chrome 中特定选项卡的内存消耗情况。它显示了我使用的 RAM 量相当大: 但是,当我在开发人员工具中拍摄堆快照时,其显示的大小要小几倍: 怎么会这样呢? 最佳答案 并非
是否有一种可移植的方式,可以在各种支持的操作系统上同时在 .Net 和 Mono 上运行,让程序知道它运行的机器上有多少 RAM(即物理内存而不是虚拟内存)可用? 上下文是一个程序,其内存要求是“请尽
有谁知道是否有办法查看 android studio 项目中的所有 View 、LinearLayout、TextView 等? 我正在使用 android 设备监视器中的层次结构查看器使用 xml
很简单,我想从 Python 脚本中运行外部命令/程序,完成后我还想知道它消耗了多少 CPU 时间。 困难模式:并行运行多个命令不会导致 CPU 消耗结果不准确。 最佳答案 在 UNIX 上: (a)
我需要在给定数组索引和范围的情况下,在返回新索引的数组中向前循环 X 量并向后循环 X 量。 如果循环向前到达数组的末尾,它将在数组的开头继续。如果循环在向后时到达开头,它会在数组末尾继续。 例如,数
Android 应用程序中是否有类似最大 Activity 的内容?我想知道,因为我正在考虑创建具有铃声功能的声音应用程序。它将有大约 40 个 Activity 。但只有 1 个会持续运行。那太多了
有什么方法可以限制这种演示文稿的 curl 量吗?我知道系统会根据我们以 taht 方式模态呈现的 viewcontroller View 内的内容自动 curl 。 但 thta 在我的 iPad
我正在编写一个 Java 应用程序,它需要检查系统中可用的最大 RAM 量(不是 VM 可用的 RAM)。有没有可移植的方式来做到这一点? 非常感谢:-) 最佳答案 JMX 您可以访问 java.la
我发现它使用了 600 MB 的 RAM,甚至超过了 Visual Studio(当它达到 400 MB 的 RAM 时我将其关闭)。 最佳答案 dart 编辑器基于 Eclipse,而 Eclips
这个问题已经有答案了: Java get available memory (10 个回答) 已关闭 7 年前。 假设我有一个专门运行一个程序的 JVM,我如何获得分配给 JVM 的 RAM 量? 假
我刚刚使用 Eclipse 编写了一个程序,该程序需要很长时间才能执行。它花费的时间甚至更长,因为它只将我的 CPU 加载到 25%(我假设这是因为我使用的是四核,而程序只使用一个核心)。有没有办法让
我编写了一个 2x2x2 魔方求解器,它使用广度优先搜索算法求解用户输入的立方体位置。该程序确实解决了立方体。然而,当我进入一个很难解决的问题时,我会在搜索的深处发现这个问题,我用完了堆空间。我的电脑
我正在尝试同步运行多个 fio 线程,但随着线程数量的增加,我的计算机内存不足。似乎每个 fio 线程占用大约 200MB 的 RAM。话虽这么说,有没有办法让每个线程都有一个固定的最大内存使用量?设
我使用“fitctree”函数(链接:https://de.mathworks.com/help/stats/classificationtree-class.html)在 Matlab 中开发了一个
我有一个 .NET 进程,由于我不会深入探讨的原因,它消耗了大量 RAM。我想要做的是对该进程可以使用的 RAM 量实现上限。有办法做到这一点吗? 我找到的最接近的是 Process.GetCurre
您可能已经看到许多“系统信息”应用程序,它们显示诸如剩余电池生命周期之类的信息,甚至显示内存等系统信息。 以类似的方式,是否有任何方法可以从我的应用中检索当前可用 RAM 量,以便我可以更好地决定何时
我从来都不是 MFC 的忠实粉丝,但这并不是重点。我读到微软将在 2010 年发布新版本的 MFC,这让我感到很奇怪 - 我以为 MFC 已经死了(不是恶意,我真的这样做了)。 MFC 是否用于新开发
我在一台安装了 8 GB 内存的机器上工作,我试图以编程方式确定机器中安装了多少内存。我已经尝试使用 sysctlbyname() 来获取安装的内存量,但它似乎仅限于返回带符号的 32 位整数。 ui
基本上,我想要一个由大小相同的 div(例如 100x100)和类似 200x100 的变体构建的页面。它们都 float :向左调整以相应地调整窗口大小。问题是,我不知道如何让它们在那种情况下居中,
我是一名优秀的程序员,十分优秀!