- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我最近发现使用新的展示位置比执行 16 次作业要快:
考虑以下代码(c++11):
class Matrix
{
public:
double data[16];
Matrix() : data{ 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1 }
{
};
void Identity1()
{
new (this) Matrix();
};
void Identity2()
{
data[0] = 1.0; data[1] = 0.0; data[2] = 0.0; data[3] = 0.0;
data[4] = 0.0; data[5] = 1.0; data[6] = 0.0; data[7] = 0.0;
data[8] = 0.0; data[9] = 0.0; data[10] = 1.0; data[11] = 0.0;
data[12] = 0.0; data[13] = 0.0; data[14] = 0.0; data[15] = 1.0;
};
};
用法:
Matrix m;
//modify m.data
m.Identity1(); //~25 times faster
m.Identity2();
在我的机器上 Identity1()
比第二个函数快大约 25 倍。现在我很好奇为什么会有这么大的差异?
我还尝试了第三个:
void Identity3()
{
memset(data, 0, sizeof(double) * 16);
data[0] = 1.0;
data[5] = 1.0;
data[10] = 1.0;
data[15] = 1.0;
};
但这比 Identity2()
还要慢,我无法想象为什么。
我已经做了几个分析测试,看看它是否是一个与分析相关的问题,所以有默认的“for循环”测试,还有外部分析测试:
Profiling方法一:(众所周知的for循环测试)
struct timespec ts1;
struct timespec ts2;
clock_gettime(CLOCK_MONOTONIC, &ts1);
for (volatile int i = 0; i < 10000000; i++)
m.Identity(); //use 1 or 2 here
clock_gettime(CLOCK_MONOTONIC, &ts2);
int64_t start = (int64_t)ts1.tv_sec * 1000000000 + (int64_t)ts1.tv_nsec;
int64_t elapsed = ((int64_t)ts2.tv_sec * 1000000000 + (int64_t)ts2.tv_nsec) - start;
if (elapsed < 0)
elapsed += (int64_t)0x100000 * 1000000000;
printf("elapsed nanos: %ld\n", elapsed);
方法二:
$ valgrind --tool=callgrind ./testcase
$ # for better overview:
$ python2 gprof2dot.py -f callgrind.out.22028 -e 0.0 -n 0.0 | dot -Tpng -o tree.png
作为用户 T.C.在评论中说明,这可能会有所帮助:
Compiled with:
g++ --std=c++11 -O3 -g -pg -Wall
-pg
is not the issue. Got the same time-difference in measurement method 1 without using this flag.
Machine info (lscpu):
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 8
On-line CPU(s) list: 0-7
Thread(s) per core: 2
Core(s) per socket: 4
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 58
Model name: Intel(R) Core(TM) i7-3612QM CPU @ 2.10GHz
Stepping: 9
CPU MHz: 2889.878
CPU max MHz: 3100.0000
CPU min MHz: 1200.0000
BogoMIPS: 4192.97
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 6144K
NUMA node0 CPU(s): 0-7
最佳答案
无论您测量的 25 倍时差是多少,这实际上并不是两个 Identity()
实现之间的差异。
使用您的计时代码,两个版本都编译为完全相同的 asm:一个空循环。您发布的代码从不使用 m
,因此它被优化掉了。所发生的只是循环计数器的加载/存储。 (发生这种情况是因为您使用 volatile int
来告诉 gcc 该变量存储在内存映射的 I/O 空间中,因此出现在源代码中的所有读/写都必须实际出现在 asm 中.MSVC 对 volatile
关键字的含义不同,超出了标准所说的范围。)
看看at the asm on godbolt .这是您的代码,以及它变成的 asm:
for (volatile int i = 0; i < 10000000; i++)
m.Identity1();
// same output for gcc 4.8.2 through gcc 5.2.0, with -O3
# some setup before this loop: mov $0, 8(%rsp) then test if it reads back as 0
.L16:
movl 8(%rsp), %eax
addl $1, %eax
movl %eax, 8(%rsp)
movl 8(%rsp), %eax
cmpl $9999999, %eax
jle .L16
for (volatile int i = 0; i < 10000000; i++)
m.Identity2();
# some setup before this loop: mov $0, 12(%rsp) then test if it reads back as 0
.L15:
movl 12(%rsp), %eax
addl $1, %eax
movl %eax, 12(%rsp)
movl 12(%rsp), %eax
cmpl $9999999, %eax
jle .L15
如您所见,没有人调用任一版本的 Identity()
函数。
有趣的是,在 Identity1
的 asm 中,它使用整数 movq
分配零,而 Identity2
仅使用标量 FP 移动.这可能与使用 0.0 与 0 有关,也可能是由于就地 new
与简单赋值有关。
无论哪种方式,gcc 5.2.0 都不会矢量化 Identity
函数,除非您使用 -march=native
。 (在这种情况下,它使用 AVX 32B 加载/存储从 4x 32B 的数据中复制。没有什么比字节移位寄存器以将 1.0 移动到不同位置更聪明的了:/)
如果 gcc 更智能,它会存储 16B 的两个零,而不是两个 movsd
。也许它假设未对齐,并且未对齐存储上的缓存行或页面行拆分的缺点比保存对齐的存储 insn 的优点要糟糕得多。
因此,无论您使用该代码计时,它都不是您的函数。除非他们中的一个做了 Identity
,而另一个没有。无论哪种方式,从循环计数器中丢失 volatile
,这完全是愚蠢的。因为它,只需查看空循环中的额外加载/存储。
关于c++ - 为什么新的展示位置比直接分配要快得多?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32223377/
我有一个应用程序,它会抛出 GKSession 并在各种条件下(连接超时、 session 失败等)创建一个新的 GKSession。不过,我遇到了内存泄漏问题,并且有时会在重新连接几次循环后崩溃。
比如我在宿主代码中有一个浮点指针 float *p 是否可以确定他指向的内存类型(设备/主机)? 最佳答案 在 UVA system 中, 运行时 API 函数 cudaPointerGetAttri
我已将项目转换为 .Net 4.0 并且以下代码不起作用: typeof(RuntimeTypeHandle).GetMethod("Allocate", BindingFlags.Instance
当我声明 char ch = 'ab' 时,ch 只包含 'b',为什么它不存储 'a'? #include int main() { char ch = 'ab'; printf("%c"
我对 Disk Sector 和 Block 有疑问。扇区是一个单位,通常为 512 字节或 1k、2k、4k 等取决于硬件。文件系统 block 大小是一组扇区大小。 假设我正在存储一个 5KB 的
假设我有 8 个人和5000 个苹果。 我想将所有苹果分发给所有 8 个人,这样我就没有苹果了。 但每个人都应该得到不同数量 将它们全部分发出去的最佳方式是什么? 我是这样开始的: let peopl
我正在构建的网站顶部有一个搜索栏。与 Trello 或 Gmail 类似,我希望当用户按下“/”键时,他们的焦点就会转到该搜索框。 我的 JavaScript 看起来像这样: document.onk
我有一小段代码: if (PZ_APP.dom.isAnyDomElement($textInputs)){ $textInputs.on("focus", function(){
我观察到以下行为。 接受了两个属性变量。 @property (nonatomic, retain) NSString *stringOne; @property (nonatomic, assign
我正在解决这样的问题 - 实现一个计算由以下内容组成的表达式的函数以下操作数:“(”、“)”、“+”、“-”、“*”、“/”。中的每个数字表达式可能很大(与由字符串表示的一样大)1000 位)。 “/
我有一组主机和一组任务。 每个主机都有 cpu、mem 和任务容量,每个任务都有 cpu、mem 要求。 每个主机都属于一个延迟类别,并且可以与具有特定延迟值的其他主机通信。 每个任务可能需要以等于或
该程序的作用:从文件中读取一个包含 nrRows 行和 nrColomns 列的矩阵(二维数组)。矩阵的所有元素都是 [0,100) 之间的整数。程序必须重新排列矩阵内的所有元素,使每个元素等于其所在
世界!我有个问题。今天我尝试创建一个代码,它可以找到加泰罗尼亚语号码。但是在我的程序中可以是长数字。我找到了分子和分母。但我不能分割长数字!此外,只有标准库必须在此程序中使用。请帮帮我。这是我的代码
我确定我遗漏了一些明显的东西,但我想在 Objective C 中创建一个 NSInteger 指针的实例。 -(NSInteger*) getIntegerPointer{ NSInteger
这个问题在这里已经有了答案: Difference between self.ivar and ivar? (4 个答案) 关闭 9 年前。
我如何将 v[i] 分配给一系列整数(v 的类型是 vector )而无需最初填充 最佳答案 你的意思是将 std::vector 初始化为一系列整数? int i[] = {1, 2, 3, 4,
我想寻求分配方面的帮助....我把这个作业带到了学校......我必须编写程序来加载一个 G 矩阵和第二个 G 矩阵,并搜索第二个 G 矩阵以获取存在数第一个 G 矩阵的......但是,当我尝试运行
我必须管理资源。它基本上是一个唯一的编号,用于标识交换机中的第 2 层连接。可以有 16k 个这样的连接,因此每次用户希望配置连接时,他/她都需要分配一个唯一索引。同样,当用户希望删除连接时,资源(号
是否有任何通用的命名约定来区分已分配和未分配的字符串?我正在寻找的是希望类似于 us/s 来自 Making Wrong Code Look Wrong ,但我宁愿使用常见的东西也不愿自己动手。 最佳
我需要读取一个 .txt 文件并将文件中的每个单词分配到一个结构中,该结构从结构 vector 指向。我将在下面更好地解释。 感谢您的帮助。 我的程序只分配文件的第一个字... 我知道问题出在函数 i
我是一名优秀的程序员,十分优秀!