- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我想在多线程模式下将对象放入 std::vector
中。所以我决定比较两种方法:一种使用 std::atomic
,另一种使用 std::mutex
。我看到第二种方法比第一种方法更快。为什么?
我使用 GCC 4.8.1,在我的机器(8 线程)上,我看到第一个解决方案需要 391502
微秒,第二个解决方案需要 175689
微秒。
#include <vector>
#include <omp.h>
#include <atomic>
#include <mutex>
#include <iostream>
#include <chrono>
int main(int argc, char* argv[]) {
const size_t size = 1000000;
std::vector<int> first_result(size);
std::vector<int> second_result(size);
std::atomic<bool> sync(false);
{
auto start_time = std::chrono::high_resolution_clock::now();
#pragma omp parallel for schedule(static, 1)
for (int counter = 0; counter < size; counter++) {
while(sync.exchange(true)) {
std::this_thread::yield();
};
first_result[counter] = counter;
sync.store(false) ;
}
auto end_time = std::chrono::high_resolution_clock::now();
std::cout << std::chrono::duration_cast<std::chrono::microseconds>(end_time - start_time).count() << std::endl;
}
{
auto start_time = std::chrono::high_resolution_clock::now();
std::mutex mutex;
#pragma omp parallel for schedule(static, 1)
for (int counter = 0; counter < size; counter++) {
std::unique_lock<std::mutex> lock(mutex);
second_result[counter] = counter;
}
auto end_time = std::chrono::high_resolution_clock::now();
std::cout << std::chrono::duration_cast<std::chrono::microseconds>(end_time - start_time).count() << std::endl;
}
return 0;
}
最佳答案
我不认为您的问题可以仅引用标准来回答——互斥锁尽可能地依赖于平台。但是,有一件事应该提到。
互斥体并不慢。您可能看过一些文章,将它们的性能与自定义自旋锁和其他“轻量级”东西进行比较,但这不是正确的方法 - 它们不可互换。
自旋锁 相当快,当它们被锁定(获取)的时间相对较短时 - 获取它们非常便宜,但其他也在尝试锁定的线程处于事件状态整个时间(不断循环运行)。
自定义自旋锁可以这样实现:
class SpinLock
{
private:
std::atomic_flag _lockFlag;
public:
SpinLock()
: _lockFlag {ATOMIC_FLAG_INIT}
{ }
void lock()
{
while(_lockFlag.test_and_set(std::memory_order_acquire))
{ }
}
bool try_lock()
{
return !_lockFlag.test_and_set(std::memory_order_acquire);
}
void unlock()
{
_lockFlag.clear();
}
};
Mutex 是一个原语,它要复杂得多。特别是,在 Windows 上,我们有两个这样的原语 - Critical Section ,在每个进程的基础上工作,并且 Mutex , 而没有这样的限制。
锁定互斥量(或关键部分)的成本要高得多,但操作系统有能力真正让其他等待线程进入“ sleep ”状态,从而提高性能并帮助任务调度程序进行有效的资源管理。
为什么要写这个?因为现代互斥锁通常是所谓的“混合互斥锁”。当此类互斥锁被锁定时,它的行为就像一个普通的自旋锁 - 其他等待线程执行一定数量的“自旋”,然后重互斥锁被锁定以防止浪费资源。
在您的例子中,互斥锁在每次循环迭代中被锁定以执行此指令:
second_result[counter] = omp_get_thread_num();
它看起来像一个快速的,所以“真正的”互斥量可能永远不会被锁定。这意味着,在这种情况下,您的“互斥量”可以与基于原子的解决方案一样快(因为它本身成为基于原子的解决方案)。
此外,在第一个解决方案中,您使用了某种类似自旋锁的行为,但我不确定这种行为在多线程环境中是否可预测。我很确定,“锁定”应该有 acquire
语义,而解锁是一个 release
操作。 Relaxed
对于此用例,内存排序可能太弱。
我将代码编辑得更紧凑和正确。它使用 std::atomic_flag
,这是唯一的类型(不像 std::atomic<>
特化),保证是无锁的(即使是 std::atomic<bool>
也不给你)。
另外,引用下面关于“不屈服”的评论:这是具体情况和要求的问题。自旋锁是多线程编程中非常重要的部分,通常可以通过稍微修改其行为来提高其性能。例如,Boost 库实现了 spinlock::lock()
如下:
void lock()
{
for( unsigned k = 0; !try_lock(); ++k )
{
boost::detail::yield( k );
}
}
来源:boost/smart_ptr/detail/spinlock_std_atomic.hpp
在哪里detail::yield()
是(Win32 版本):
inline void yield( unsigned k )
{
if( k < 4 )
{
}
#if defined( BOOST_SMT_PAUSE )
else if( k < 16 )
{
BOOST_SMT_PAUSE
}
#endif
#if !BOOST_PLAT_WINDOWS_RUNTIME
else if( k < 32 )
{
Sleep( 0 );
}
else
{
Sleep( 1 );
}
#else
else
{
// Sleep isn't supported on the Windows Runtime.
std::this_thread::yield();
}
#endif
}
[来源:http://www.boost.org/doc/libs/1_66_0/boost/smart_ptr/detail/yield_k.hpp]
首先,线程旋转一些固定次数(在本例中为 4 次)。如果互斥体仍然被锁定, pause
instruction is used (如果可用)或 Sleep(0)
被调用,这基本上会导致上下文切换,并允许调度程序给另一个阻塞的线程一个机会来做一些有用的事情。然后,Sleep(1)
被调用以执行实际(短) sleep 。非常好!
另外,这个声明:
The purpose of a spinlock is busy waiting
不完全正确。自旋锁的目的是作为一种快速、易于实现的锁原语——但它仍然需要正确编写,并考虑到某些可能的场景。例如,Intel says (关于 Boost 对 _mm_pause()
的使用,作为在 lock()
内部产生的方法):
In the spin-wait loop, the pause intrinsic improves the speed at which the code detects the release of the lock and provides especially significant performance gain.
所以,像这样的实现 void lock() { while(m_flag.test_and_set(std::memory_order_acquire)); }
可能不像看起来那么好。
关于c++ - 为什么 std::mutex 比 std::atomic 快?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29533755/
这看起来很基础,但我想不通。是否有一种简单的 CSS 唯一方法可以使 cssa 真正快速淡入并缓慢淡出。这是为了改变多个 div 的颜色。大约 0.5 秒的缓入和 2 秒的缓出。 谢谢! 最佳答案 你
我一直在用各种语言和实现实现相同的代码(在 Blackjack 中发牌而不爆牌的方法的数量)。我注意到的一个奇怪之处是,Python 在 C 中调用分区函数的实现实际上比用 C 编写的整个程序快一点。
如果我没看错,/ 意味着它右边的节点必须是左边节点的直接子节点,例如/ul/li 返回 li 项,它们是作为文档根的 ul 项的直接子项。 //ul//li 返回 li 项,它们是文档中某处任何 ul
如何随机更新一个表。所以你给一列一个随机值。并且该列(例如“顶部”)是唯一的。如果您在数字 10 到 20 之间进行选择,并且您有 10 行,那么您就不能有未使用的数字。如果你有 Test table
这在一小部分是一个问题(因为我不明白为什么它会有所不同),在很大程度上是一篇希望能帮助其他一些可怜的程序员的帖子。 我有一个代码库,是我大约 5-7 年前第一次开始 Android 编程时编写的,它具
我正在尝试过滤关系表以获得满足两个条件的表子集(即:我想要 color_ids 为 1 或 2 的条目的所有 ID)。这是一张结实的 table ,所以我正在尝试尽可能多地进行优化。 我想知道是否有人
在上一篇《聊聊PHP中require_once()函数为什么不好用》中给大家介绍了PHP中require_once()为什么不好用的原因,感兴趣的朋友可以去阅读了解一下~ 那么本文将给大家介绍PH
很难说出这里问的是什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或言辞激烈,无法以目前的形式合理回答。如需帮助澄清此问题以便可以重新打开,visit the help center . 10年前关
有没有办法提高glReadPixels的速度?目前我做: Gdx.gl.glReadPixels(0, 0, Gdx.graphics.getWidth(), Gdx.graphics.getHeig
通常,我以函数形式`:=`()来计算data.table中的多列,认为这是最有效的方法。但是我最近发现它比简单地重复使用:=慢。至少在我的电脑上。 我猜想:=的功能形式可能会产生一些开销,但这是它变慢
我的问题是针对 Windows 环境中多线程的性能问题。 在测试我的代码后,我得到的结果是增加线程数不会提高并行计算的性能,并且在经过一些计数后变得更少。到底是怎么回事?是否可以找出最佳线程数的公式:
我看到很少有相同问题的主题,但我仍然无法解决我的问题。这是我的代码 - 使用 XOR 加密的 C 套接字编程 当服务器和客户端连接时:- 用户发送消息,例如:你好- 服务器响应,例如:(服务器):你好
我正在定义继承自 Shape 类并实现“几何”属性的形状。 这是一个例子: public class Landmark : Shape { public override bool IsInB
相同代码在 Android(1Ghz Snapdragon)上的执行速度比我在 3.3 Ghz Core 2 Duo 的 PC(在桌面应用程序中)快 2 倍(PC 的类被复制到 Android 项目)
我需要将一个值与一组数组进行比较。但是,我需要比较 foreach 中的多个值。如果使用 in_array,它可能会很慢,真的很慢。有没有更快的选择?我当前的代码是 foreach($a as $b)
这个问题在这里已经有了答案: How do I write a correct micro-benchmark in Java? (11 个答案) 关闭 9 年前。 今天我做了一个简单的测试来比较
如果比较不应该以这种方式进行,我深表歉意。我是编程新手,只是很好奇为什么会这样。 我有一个包含词嵌入的大型二进制文件 (4.5gb)。每行都有一个单词,后面跟着它的嵌入,它由 300 个浮点值组成。我
我经历了几个不同的四元数乘法实现,但我很惊讶地发现引用实现是迄今为止我最快的实现。这是有问题的实现: inline static quat multiply(const quat& lhs, cons
我写了一个简单的例子,估计调用虚函数的平均时间,使用基类接口(interface)和dynamic_cast和调用非虚函数。这是它: #include #include #include #in
有没有人知道比“StackWalk”更好/更快的获取调用堆栈的方法?我还认为 stackwalk 在有很多变量的方法上也会变慢......(我想知道商业分析员是做什么的?)我在 Windows 上使用
我是一名优秀的程序员,十分优秀!